4回目となる今回は、新しいテクノロジーのリスクとしての人工知能(AI)を取り上げます。まずは、AIを社会的・政治的視点のメタレベルから見つめ直した後、サイバーセキュリティーの観点からリスクの内実を見てみようと思います。

いつものように、素材はISFのメンバーによるエッセーを借りることにしますが、トップバッターは気鋭のアナリスト、マイク・ヨーマンズの登場です。


人工知能(AI)は新たな核兵器か?

Mike Yeomans (ISF:シニア・アナリスト)(出典:ISF Blog 2020年11月25日、訳:小原)

データは新しい石油、在宅勤務は新たな行動規範、ソーシャルメディアは新しい報道プラットフォーム。AIは、さしずめ新たな核兵器というところだろうか?

フィナンシャル・タイムズ紙の優れた記事 "Is AI finally closing in on human intelligence?"(「AIはついに人間の知性に迫るのか?」、リンク先を読むには購読契約が必要)では、GPT-3(Generative Pre-trained Transformer 3)で自然言語処理について大きな前進があったことに光を当てています。GPT-3は、文法的に正しく、実に筋の通った文章を作成します。45テラバイトのデータ(人間が死ぬまでに読む単語数の450億倍)を習熟しており、2017年にAIが創作した「ハリー・ポッターと巨大な灰の山のように見えた肖像画」(Botnik Studios)は、文法は正しく(また面白く)てもチンプンカンプンであったことからすると目覚ましい進歩です(参照:https://botnik.org/content/harry-potter.html)。

汎用的なAIの実用化はまだ先だが、目覚ましい進歩

GPT-3はOpenAIが作成しており、イーロン・マスク、リード・ホフマン(LinkedInの創設者)、そして最近ではマイクロソフトからも出資を受けています。チェスをする「AI」ディープ・ブルーのように、一つか二つのタスクだけをこなせる高度なロボットではなく、人間の知覚を持つとも言える洗練された汎用AIを目指した開発が進んでいます。まだ到達してはいませんが、OpenAIが目指しているのはそこです。

AI開発の課題は依然として残っており、ほとんどのシステムはまだ見せ掛けのAIで、自動補完(autocomplete)ツールに過ぎません。つまり、AIは過去に分析されたデータの統計分析に基づいて、書き手が言いたいことを正確に予測しますが、違う視点で考えたり、事前にプログラムされた組み合わせ以外の質問に対する答えを用意したりすることはできません。言い方を変えれば、AIは多くを知っていても、考えることは全くできないのです。

AIが作り出すものは、何でも過去(またはAIにとっての過去)に基づく予測です。つまり、大量に増え続けるAIの判断は、AIを訓練するデータを選び、さらに言えば何を真実と信じるかを決定する者によって、事前に決定されていることを意味します。これによって治安問題を起こそうと、データセットをもて遊び、人々のバイアスを増幅させ、人種差別的な外国人排斥の罵声を上げさせることもできます。いいえ、もっと不吉な兆しが待ち受けているのです。