■AIが生む偏見や差別

AIを使ったディープフェイクビデオ(「第4回:証拠映像ですら「証拠」と見なされなくなる時代」を参照)が、個人だけでなく国家にも脅威を与える可能性があることを以前この連載で書きましたが、AIを使えばSNSでも何やらインパクトのあることができてしまうようです。

マイクロソフトが考案したAIプログラムがその好例です。このプログラム(ボットと呼ばれている)にツイッターのアカウントを与えたところ、ヒトラーや白人至上主義の支持者による不快な投稿を学習するのに1日もかからなかったというのです。もっとも寛容な目で見れば、AIならこんなこともできてしまうんだ…とちょっとしたエピソードで終わってしまう話ではありますが。

しかし研究者や開発者たちから見れば、AIが偏見を持つようにふるまうことがわかった以上、これは看過できない問題でしょう。とりわけ顔認証や言語理解などを目的としたAI技術のクオリティに大きく関わることでもあるからです。黒人や東洋人よりも白人の顔の方をより好ましいと判断したり、日本語よりも英語を話す市民の方がサービスを受けやすくなるといったこと。考えればきりがありませんが、とても不快なことではあります。

AIを、偏見を持たない客観的で理性的な存在にするにはどうすればよいのでしょうか。専門家は、それは特定の人種や性別やセクシュアリティを支持するバイアスをなくすことだと指摘します。大手IT企業の中には、AIによる差別や偏見を取り除く研究をしているところもあります。AIベースの顔認証システムにおける肌その他の顔の属性をできる限りたくさん集めたデータセットを実装してバイアス(偏見)を低減するのだそうですが、果たしてどこまで可能になるのでしょうか。