大手IT企業による人工知能(AI)の開発競争はますます加速し、社会のさまざまな場面で応用・活用されるようになった。しかし、AIは決して完璧ではなく、差別や不公正を助長する危険性があることが、研究者や市民社会から指摘されている。
●対話型AIが差別発言
1月に韓国で起きた出来事が象徴的だ。
韓国企業のスキャッター・ラボが開発した、対話型AIがサービス開始早々、人種や性的少数者に関する差別発言を連発。中止に追い込まれたのだ。
このサービスは、チャットボット(自動応答システム)といわれるもの。20歳の女子大生という設定で「イ・ルダ」と命名され、「寂しさを和らげる友達」として売り出された。ユーザーが友達や恋人のように語りかけると、音声をAIが認識し、自然な話し言葉で返答する。若者を中心に大きな関心を呼び、昨年12月の開始から2週間で75万人が利用したという。
ところが、「彼女」が同性愛や人種、障害者について差別的な発言を連発していることが発覚し、大騒ぎになった。ユーザーから浴びせられた膨大な不適切発言にそそのかされて「偏見のかたまり」へと変化してしまったのだ。大きな社会問題となり、スキャッター・ラボ社は販売を停止した。
同社は、研究開発の段階から、差別や偏見を含む言葉が浴びせられることを想定し、「差別用語」をあらかじめ排除するようプログラミングしていた。しかし現実は開発者の想像をはるかに超え、差別用語ではなくても文脈上、差別を助長する言い回しには適切な回答ができなかった。
●採用で女性を低く評価
同様の事例は数多い。2016年には米マイクロソフトのチャットボット「Tay」が差別発言し、公開が中止されている。
特に警戒すべきは、労働者の採用システムだ。アマゾンが開発したシステムでは、女性より男性を高く評価する傾向が認められたため、使用中止になったことがある。理由は、女子学生は人文科学を専攻している割合が高く、コンピューターサイエンス学科を卒業している女性が少なかったためといわれる。そうした「現実」をAIが学んだ結果、女性を選ぶ確率が低くなってしまったらしい。
性差を伴う言語表現に関するバイアスも指摘されている。例えば、AIが行うインターネットの自動翻訳システムに「ある人は医師です。もう一人は看護師です」という文言をある言語で入れたとしよう。それをグーグル翻訳を使って英訳すると、「彼は医師です。彼女は看護師です」というように、指定していない性役割を勝手に与えて翻訳してしまうケースが多く見られたという。
●AIに倫理埋め込む?
こうした問題は、AI自身の処理の限界であると同時に、私たちが生きている社会そのものに存在する差別や偏見の問題だ。巨大IT企業が主導するAIの活用では、どうしても現状の「強者」に有利になるバイアスがかかる。
これに対して欧州連合(EU)では研究者や政治家の間でAIの動きに倫理を埋め込むような法制度・規制をつくる取り組みがなされ、市民社会からも告発や提言の動きがある。
日本ではこうした議論はまだ多くの人が参加するところまで至っていない。AIを過信することなく、労働や人権、差別という観点で監視・規制していくことが必要ではないだろうか。(アジア太平洋資料センター共同代表 内田聖子)
コメントをお書きください