■人間がAIの標的になる可能性

AIロボットが人間を殺傷する。このような飛躍した懸念は以前から一部の人々の間でささやかれてきましたが、多くはSF映画の素材に転嫁されることがもっぱらで、それ以上に現実的な脅威として問題視されることはありませんでした。

ところが、テスラのCEOである著名なイーロン・マスク氏が「テクノロジー(AIのこと)は第三次世界大戦を引き起こす」と述べてからは、なんとなくあちこちで現実味を帯び始めました。もっとも彼はAIについてはあけすけな、あるいは誇張した意見を述べることもしばしばで、彼自身がどこまで確かな根拠に基づいて語っているのか疑問視する声も少なくありません。しかし専門家たちにしてみれば、意外に聞き捨てならないことのようです。例えばCNBCの次の1文。

「無人殺傷兵器を開発したり軍の意思決定にAIを使用したりすれば、多くの倫理的ジレンマを生み出し、引いてはAIによる戦争への扉を開くことになる、と専門家や活動家は強く主張している」。

あるNGOは、「ストップ殺人ロボットキャンペーン」を掲げ、AIを搭載したドローンや乗り物の開発を禁止するよう政府に働きかけているといいます。

目や耳の錯覚、体調の善し悪し、あるいは恐怖や怒り、油断といった感情が生じて判断を誤りやすい人間に比べると、AIは究極的に冷静な判断力を備えた精緻な存在であるといえるでしょう。その意味でAI自体は危険などころかとても頼りになる存在なわけですが、問題なのはそれが人間の手を離れて完全に自律的に歩き回ったり、走行あるいは飛行したりする「監視ロボット」や「兵器」となったとき、限りなく恐ろしい存在に思えてくる。なにしろ「話せばわかる」相手ではないですから。

■核のボタンを押すのは?

ちなみに映画「ターミネーター」では、スカイネットと呼ばれる戦略防衛コンピュータシステムが自我に目覚め、全世界に核ミサイルを発射して人類の半数を死滅させるというコワい設定でした。今ではスカイネットは究極の軍事AIと呼んでもよいでしょう。この映画に触発されたわけではないとは思いますが、AIを軍事に応用すれば2040年までに核戦争が起きる可能性があることを米国防省傘下のシンクタンクであるランド研究所が警告しているのです。

この過激な予測は、軍事目的のAIが誤った判断を下す可能性があることを示唆しています。AI自身が核のボタンを押さずとも、AIの判断が絶対的に正しいと信ずる軍部の意思決定者あるいは一国のリーダーが、その「ご宣託」を受けて慌てて核のボタンを押してしまうかもしれないのです。

この背景には、1983年に旧ソビエト連邦の軍当局で、コンピュータがうっかり「米国が核ミサイルを発射した」との誤認アラートを出し、あやうく核戦争が起こりかけたという事実があります。「当時のコンピュータは性能が低かったからね」で済まされる話ではありません。人間をはるかに凌駕した記憶量と計算速度を持つ今日のAIは、人手ならば何十年もかかる作業を、ものの数分(あるいは数十秒)で処理してしまうでしょう。そのはかりしれない記憶量と処理速度、そして結論が導き出されるまでの複雑な過程は、人間から見れば完全に不可視あるいは不可知の領域にあるわけです。AIが人間の倫理的直感に反する究極の結論を出したとき、あなたはその結論を「なぜ?」を問うことなく正しいこととして受け入れられますか?

(続く)