マンスリーレビュー

2019年2月号トピックス3防災・リスクマネジメント

防衛大綱の新領域をAI・ロボットで守るために

同じ月のマンスリーレビュー

タグから探す

2019.2.1

科学・安全事業本部河野 伸一

防災・リスクマネジメント

POINT

  • サイバー、電磁波、宇宙を守る技術としてAI・ロボットが重要。
  • しかし、解決すべき技術的課題に加え、倫理的な課題も残る。
  • 防衛分野での利用にはオープンな場でのコンセンサス作りが必要。 
2018年12月に今後の防衛力のあり方を定める新防衛大綱が発表された。従来の国防とは陸海空の三つの領域を守ることであったが、新防衛大綱ではサイバー、電磁波、宇宙という「新しい領域」が対象に加わった。

インターネットや携帯電話、衛星通信などは、今やわれわれの生活や経済に欠かせないものとなっているが、これらの領域を守ることは簡単ではない。例えば、サイバー領域は、超高速で膨大な量のデータや信号が流れる世界であり、サイバー攻撃を受けたとしても、人間のスピードで対応することはとても難しい。また、宇宙空間にある人工衛星を敵のミサイルから守るシステムを構築しようとすると、地球規模のシステムが必要となり多大なコストがかかる。AI・ロボットの活用により、自律的(自動的)かつ的確に対応可能となる意義は大きい。

海外ではこうした問題を克服すべく、新領域でAI・ロボットを活用する研究が盛んに行われている。米国では国防総省においてサイバー攻撃に自動対処するようなAIシステムがすでに導入されている。敵の電磁波攻撃をAIがリアルタイムで認識し、自動で無力化するようなシステムの開発も進んでいる。しかし、解決すべき技術的課題はいまだ多いことに加え、自律的に判断、行動することをどこまで許すのかという倫理的な課題も残っている。例えば、サイバー攻撃を停止させるために、攻撃源周辺のインターネット網を全面的にまひさせる判断をAIが下して良いのか、といった問題はあまり議論されてこなかった。

日本においても、このようなAI・ロボットにおける倫理的課題に対して社会的コンセンサスが得られない限り、防衛分野でのAI・ロボットの利用が暗礁に乗り上げる可能性がある。今後は専門家を交えつつ広くオープンな議論の場を設けて、コンセンサス作りを行うべきだ。オープンな議論を通じて形成されたルールがあれば、企業や研究機関も安心して防衛分野のAI・ロボット研究に取り組むことができる。防衛分野の取り組みは、結果的に日本のAI・ロボット技術全体の発展に向けた一助となるだろう。
[図]AI・ロボットを防衛の新領域に適用する場合の課題