人工知能(AI)の判断に基づく事故の責任は誰が負うべきなのか――職場や家庭へのAI導入が急ピッチで進む中、もしものときの責任問題についても議論が始まっている。
この問題を考える上でよく出されるのが「トロッコ問題」だ。ブレーキの壊れたトロッコの前方に5人の作業員がいる。手前の待避線に進路を変えれば避けられるが、そこにも別の作業員1人がいる。5人を救うために1人を犠牲にすることは許されるのか――という倫理上の問いかけだ。
英国の哲学者が50年前に考え出した思考実験なのだが、AIによる自動運転が現実に近づくにつれて、脚光を浴び始めた。完全自動運転(レベル4)の実現には、事故が回避できない場合の対処策をプログラムしておく必要があるからだ。
●AIが人間に危害
しかし、「多数を救うために少数を犠牲にすることはやむを得ない」と、プログラムされたAIカーが人をはねたとき、それがもっと大きな被害を回避するためだったと本当に言えるのか。被害予想が間違っている可能性はないのだろうか。
5月下旬に行われた人工知能学会で北海道大学大学院情報科学研究科の吉岡真治准教授は「誰かの被害を小さくするために、他のステークホルダー(利害関係者)の被害を大きくする判断を人工知能にさせるのはそもそも無理」と指摘した。
SF作家アイザック・アシモフが提唱したロボット3原則の第一は「ロボットは人間に危害を加えてはならない」。しかし、トロッコ問題に解答を与えることは、第一原則に抵触する危険をはらんでいる。
●リスクは運転手に
自動運転については、レベル4の前段階、レベル3が技術的には実現しつつある。高速道路など一定の条件下でのAI運転を可能とするもので、人間は事故回避などの際のみ運転を任せられる。しかし、「AI」と「人間」との運転切り替えがうまくいくのかについても疑問が出ている。
吉岡氏は、レベル3の自動運転について「(緊急時に)運転手へ責任を押し付けるもの。運転手の判断が求められるのは(事故の)ギリギリになってからだが、その段階で的確な判断が可能か」と首をひねる。
レーダーによる周囲の監視や自動ブレーキなどで安全性能をどんなに高めたとしても、車を動かす以上、100パーセントのリスク回避はできない。「リスクは常にある。その責任は運転手が負うべきだという認識を持った上で、自動運転を利用しなければならない」と吉岡氏は警鐘を鳴らす。
突然、道路が陥没。ブレーキを踏んでも間に合わない。直進すると自分の命が危ないが、ハンドルを切ると通行人をはねてしまう。AIはどう判断するのか?
コメントをお書きください