コラム

3Xによる行動変容の未来2030最先端技術

AIロボティックスの社会実装:将来展望3

「安全性と自律性」の両立に向けた課題

タグから探す

2024.6.20

先進技術センター中村裕彦

3Xによる行動変容の未来2030
高度なAIを搭載し、優れた動作機能までを備えた「AI・ロボット」。SF作品で描かれたようなロボット技術が実用化すれば、私たちの暮らしをますます便利にしてくれるでしょう。ただしロボットの誤動作や意図しない動きは物的・人的被害に直結するため、適切な安全対策が不可欠です。第3回では、運動量と運用条件に基づき6つの物理被害リスククラスを設定し、対応する自律動作のレベルを整理するとともに、社会実装に向けた課題を検討します。

社会実装には物理的被害リスク対策が必須

近年、高度なAIが実用化され応用も進んでいますが、AIが高度であるがゆえに、さまざまな問題が生じることが懸念されています。このため、AI倫理やAIガバナンスに関する検討やルール作りが世界各国で進んでいます。

被害のタイプという点からAIのリスクを分類すると、心理的被害リスク、経済的被害リスク、物理的被害リスクに分けられます。

心理的被害リスクには多様なものがあります。AIの学習データのバイアスや、生成AIのハルシネーション※1などに伴う、利用者や開発者が意図しない不適切な情報の出力、ディープフェイクなど悪意を持った不適切な表現の流通、行動履歴などが本人の許諾なしに解析され、知られたくない機微情報・プライバシー情報が推定される危険性などが代表例です。

経済的被害リスクには、許諾が必要なデータを無許可でAIの開発や学習に使用される、知的財産権を侵害する情報が合成・生成される、フェイク情報などにより企業のブランドなどの価値が毀損される、などが挙げられます。

一方、物理的被害リスクについては自動運転車の事故時の責任の所在に関する議論などが行われていますが、心理的被害リスクや経済的被害リスクに関する議論に比べると検討例は必ずしも多くありません。これは現時点では、物理機械の安全性のほとんどは、製造物責任法など既存の製品安全性基準で対応できるためです。

しかしこの状況は、物理機械に柔軟性の高いAIが搭載され、複雑な動作が可能な「知能機械」として普及していくにつれ、今後、変わっていくことが想定されます。

高度なAIを搭載した知能機械は、人と同等、もしくは人を凌駕するパワーで、生活のさまざまな場面をサポートすることが期待されています。これはものや人に被害を与えかねない力を持つ機械を、安全柵などを使うことなく人の身近で自律的に動作させることを意味します。このためには、機械側が、常に周囲を監視し、高いレベルで安全性と自律性を同時に満たさなければなりません。より高度な安全対策が必要になります。

運動量と利用環境で変わる物理的被害リスク

高度なAIを搭載し、なおかつ一定の運動・移動機能を備えた知能機械は「AI・ロボット」と呼ばれます。AI・ロボットは知能機械の一種ですが、潜在的な危険性や利用する環境には多くのバリエーションがありますので、物理的被害リスクと運用条件により、必要な安全対策のレベルも異なります。

物理的被害リスクは、その知能機械の持つ(発生する)運動量により変化します。また、運用条件を被害リスクの観点から考えると、無人区域と一般区域では必要な安全対策や周囲を監視する頻度・精度のレベルが大きく異なります。

物理的被害リスクへの対応の必要性のレベルを大まかに類型化するため、運動量と運用条件に基づき、6つのリスククラスとして整理しました。それぞれのクラスの概要と、該当する製品の社会浸透に必要な要素を図表1にまとめます。
図表1 物理的被害リスククラスの概要
物理的被害リスククラスの概要
三菱総合研究所作成

高運動量領域でのAI・ロボットの自律化の動向

ディープニューラルネット※2のような高い柔軟性を持つAIを実装したロボットは、自動化、自律化に関して高い潜在能力を持っています。

一方、ディープニューラルネットは多数の変数が非線形に結合した複雑な構造を持っている(つまり、ブラックボックス化している)ため、なぜ、AIがそのような判断をしているか、人が論理的に理解することは事実上不可能です。

AI・ロボットは物理的な運動・移動を伴いますので、特に、大きな運動量を持つAI・ロボットを第三者が存在する環境で自律的に動作させることについては、段階を踏んで慎重に進める必要があります。人間が予期できない動作を行ってしまい、ものや人に被害を与えかねないからです。一方で、小さな運動量しか発生しないAI・ロボットに関しては、そのような制限はイノベーションの阻害要因になりますので好ましくありません。

図表2には、高運動量を持つ機械へのAIの適用イメージを示しました。技術的には機械の自律動作はかなりのレベルに達しており、無人区域で運用する限り、人は緊急時に介入するだけで済むような知能機械が実現しています。
図表2 運動量と使用区域別に整理した物理的被害リスククラス
運動量と使用区域別に整理した物理的被害リスククラス
三菱総合研究所作成
建築現場などのように機械の動作範囲や危険性を知っている人のみが存在する制限区域では、AIと人が協調して作業する段階にあります。AI・ロボットが完全に自律的動作をする段階には至っていないケースがほとんどです。

第三者が存在する環境での自律駆動機械の代表は自動運転車です。技術的には多くのシチュエーションで動作する自動運転車は実現していますが、社会実装は遅々として進みません。これは環境変化や状況の多様さに対し、十分な検証ができていないためです。

高運動量の知能機械の自律・自動動作に関しては、利用環境や運用主体、走行範囲などに制限をつけた状況で十分な実績を積み、必要な安全対策やインフラの整備、自動運転に関する社会の認識の拡大と合意を進める必要があります。そのため、一般のユーザーが自家用の自動運転車を身近に使えるようになるのはかなり先になると思われます。

被害リスククラスごとの最大限のAI活用が急務

日本でも、物理的な被害リスクがない、もしくは小さい低運動量領域について積極的に柔軟なAIの活用を進め、データの蓄積を図るべきです。すでに欧米の巨大プラットフォーマーやスタートアップでは、生成AIによるロボットの直接駆動などの動きが活発で、オープンデータとしてロボットハンドの制御データの共有化などさまざまな動きが進められています。

高運動量領域では、一気に高度なAIによる直接制御を始めることにはリスクがあります。しかし、例えば、人間が通常の自然言語ベースで行った指示を、既存のロボット制御用の言語に変換する仕組みを取り入れることで、人間とロボットとの意思疎通の向上や誤動作の防止を図っていくことは重要です。このほかティーチング過程の簡易化※3や、バーチャル空間などを活用したテストベッド※4での経験値の獲得など、高度なAIと既存の確立した手法とを組み合わせることで生産性を高めることが必須です。

センサーとエフェクタを介してリアルワールドと密接につながるAI・ロボットは、地域・現場とのすり合わせの巧拙で利便性が決まるため、地域・現場側にノウハウや付加価値を残すことが可能です。AI基盤モデルのように大規模で汎用性・基盤性の高いAIの整備も必要ですが、安全性と自律性を備えたAI・ロボットを早期に社会実装するための施策の拡充が望まれます。

※1:ハルシネーション:生成AIが幻覚(Hallucination)を見ているかのように、事実に基づかない情報をあたかも事実であるかのように生成する現象。

※2:ディープニューラルネット:ディープニューラルネットワーク(DNN)。脳の神経回路にヒントを得て作られたニューラルネットを多段階に重ねた構造を持つ。現在のAIの主流。

※3:ティーチング過程の簡易化:生成AIの言語変換機能(翻訳機能)を使うことで、日常語(自然言語)から専門のプログラム言語に変換できる。ダイレクトティーチング(人が直接ロボットアームを動かすことで、ロボットの動作を設定)と併せて、ロボットの動作のプログラミングの簡易化が可能となる。

※4:バーチャル空間などを活用したテストベッド:さまざまな環境をバーチャルに再現し、その空間を使ってロボットの動作確認や動きの微調整等を行うというもの。さまざまな環境条件を設定できるため、自動運転車の開発などでも活用されている。

著者紹介

連載一覧

関連するナレッジ・コラム