[AI]AIへの懸念へ堅実に応えることが普及の近道

Point
人工知能(AI)を実運用する中で倫理観と信頼性への懸念が出ている。
技術が段階的に実用化されるため、社会受容まで時間がかかる。
研究者と企業の協力によるAI啓発の地道な努力が欠かせない。

先端技術研究センター 高橋 怜士

 人工知能(AI)を業務に活用する動きがさまざまな分野で広がりを見せており、導入検討の段階から実運用に移るケースも増えている。同時に、AIは決して万能ではなく、実運用に向けての問題があるとの指摘も現れ始めた。「AIが偏見をもっている」「AIによる判断を欺く方法がある」という、AIに倫理観や信頼性を要求するものだ。

 ある程度はAIに入力されるデータの偏りから発生する問題であって、偏りを除去すれば改善が見込める。しかし、何を偏りと見なすか、どのように偏りを除去するかなどが保証されない限り、完全に問題を解決することはできない。公平性をはじめ倫理観・信頼性を確保する技術は研究されているが、実用レベルには達していない。

 技術が段階的に実用化される間は、AIが人間では不可能な大量・高速な処理を担当して人間が最終判断するという役割分担型の「ハイブリッド」な運用で耐える必要がある。ただ、人間の関与が続くことで、AIへの期待が縮小し、AIの開発や普及が鈍る事態は避けたい。AIの自立を妨げている倫理観や信頼性の問題を解決し、通常は人が行う判断や裁量を求められる領域でも社会に受け入れられたとき、真のAI普及期が訪れる。

 アメリカではGoogleと同社が買収したDeepMind、Facebook、IBM、Microsoftの各社が、AIの普及や啓発に向けて倫理やプライバシー、安全性の問題を共同研究するNPO*1を2016年に設立した。NPOは大学や各種研究機関、企業などでAIの開発に取り組む研究者に広く参加を呼びかけている。GoogleとMicrosoftは深層学習*2を利用したAIの開発で研究合戦を繰り広げているが、AIの普及や啓発の分野では協力関係を築こうとしている。日本国内でも人工知能学会の倫理委員会などでAIに求められる倫理観に関する議論が繰り広げられているが、アメリカの反応に比べると動きが鈍い。日本も企業が研究者に呼びかけて、AIに対する懸念を払拭する対応が求められる。一足飛びに問題を解決することは不可能だとしても、一歩一歩の積み重ねは、AIの大きな飛躍に結びつくだろう。

人工知能(AI)の課題と解決方法


関連するコラム・レポート

関連するサービス

MRIマンスリーレビューの目次へ