「自律型致死性兵器システム(LAWS)は際限のない軍拡競争をもたらす危険がある」――科学技術リスクの啓蒙活動を行う米国の団体「命の未来研究所(FLI)」のリチャード・マラ氏は、5月の人工知能学会倫理委員会の公開討論に寄せたビデオメッセージでこう警鐘を鳴らした。
「LAWSが使われれば防御は難しい。その点で生物・化学兵器と似ている。人間の意思に反して、戦争を拡大してしまう恐れもある。いま開発を食い止めなければならない」
AIによるロボット兵器は、自ら敵を見つけ出し、攻撃するのが特徴。自律型致死性兵器と呼ばれるゆえんだ。米露英中のほか、イスラエルなども開発を進めていて、ごく近い未来に実用化されるとみられている。
そうした中、ロボット兵器が敵を探して戦場を動き回るような破滅的世界を避けるための議論が始まっている。国連は今年、特定通常兵器使用禁止制限条約(CCW)の専門家会議を開催し、人工知能(AI)を組み込んだロボット兵器の規制についての議論を開始。各国のAI開発者も今年2月、「破滅的な自動兵器による軍備の拡大競争を避けるべきだ」という提言を盛り込んだ安全ガイドライン(アシロマAI23原則)を発表した。
●日本での弱い問題意識
人工知能学会でも「個人的には、軍事に関連する研究は絶対にやらないが、あらゆる技術は軍事応用の可能性がある。悪用される危険を考えた上で、その可能性を減らす態度を持つことが研究者には必要」(東京大学知能工学研究室・堀浩一教授)といった意見が出された。
しかし、全体としては日本のAI開発者による議論は進んでいない。マラ氏の提起を受けた公開討論でも堀氏を除く日本人パネリストからは、この問題についての意見はほとんど出されなかった。
人工知能学会の倫理委員会は今年2月、9項目の倫理指針を発表している。直接的に軍事利用に触れた項目こそないが、「人類の安全への脅威を排除」「安全性と制御可能性…に努める」「悪用されることを防止する措置」との規定が各項目で繰り返されている。
日本は、産業用ロボットの開発・導入で世界をリードするが、軍事利用への技術的垣根は低いといわれている。倫理委員会の松尾豊委員長(東大教授)は「今後は、安全保障やAIの自律性についても踏み込んだ議論をしていきたい」と話す。倫理指針の各項目にどう具体性を持たせていくのかが問われている。
コメントをお書きください