■AIの発言が"神のお告げ"となるとき

ところで、グーグルの「アシスタント」は、その名の通り、多忙で手の回らない私たちのちょっとしたお手伝いをしてくれるAIであることを考えると、無理にリスクを紐づける必要はなさそうです。ただしこのデモンストレーションの結果、聴衆からは「人間の声と区別がつかない」との批判が出たため、今後の実証実験では、電話の冒頭で「自分はAIです。クライアントから頼まれて電話をしています」とAIに名乗らせることにしたとか。自分の話している相手が人間なのか機械なのか分らないという状況は、私たちにある種のフラストレーションや人間不信を抱かせるかもしれませんからね。

一方、想像を膨らませれば膨らませるほど気がかりなのが「Project Debater」のようなAIです。ITmediaの紹介記事には、Project Debaterの開発目的について次のような記述があります。

■参考記事(ITmedia)
http://www.itmedia.co.jp/news/articles/1806/19/news135.html

「IBMは、Debaterは今後、例えば公共政策に関連する議論を提起することなどにより、人間のような偏見のない、事実に基づく“共鳴板”になる可能性があるとしている。Debaterの信頼性が高まれば、複雑化する世界で確かな情報に基づく意思決定に利用できるようになるという」。

AIが持っている膨大な情報は、事実として記録された過去のデータです。過去の情報を駆使して現状を分析し、最適な結論を導くという意味では、政策責任者や裁判官、弁護士、医師、経済学者、投資コンサルタントなどが、このAIを意思決定のツールとして用いるメリットは少なくありません。結果を出す時間も大幅に短縮され、おびただしい件数の問題や課題が解決されることになるでしょう。

しかし、もしそのような社会が実現し、社会的に高次の判断が必要とされる分野でAIがひんぱんに活用されるようになれば、それは人間社会にとって危機になるかもしれない。なぜなら「AIによれば…」という決まり文句が法案や政策の決定、裁判の判決、診断や病気治療の正当性の根拠として乱用される危険性があるからです。あたかも神のお告げのように、私たち人間ではなくAIの発言に基づいて社会が回っている。これはまさに、イスラエル人歴史学者ユヴァル・ノア・ハラリ氏が「ホモ・デウス-テクノロジーとサピエンスの未来」(河出書房新社)で描いた未来社会(データ至上主義の社会)の姿を髣髴とさせるものがあります。

あなたは、AIに自分や自分の子供の未来を託したいですか? "AIのお告げ"によって、正確かつ中立的で、誰もが認めるバランスのとれた理想的な社会が実現するとお思いですか?

(了)