■誰でも入手できるAIアルゴリズム

このビデオはどのようにして作るのでしょうか。まず複雑な命令コード一式をコンピューターにインストールし、次にビデオ加工する人物の様々なイメージと音声を読み込みます。この後コンピュータープログラムは、その人物の顔の表情や動きだけでなく、声や話し方のパターンまで含め、そっくり真似できるように学習します。対象とする人物のビデオ画像や音声がたくさんあればあるほど、ディープフェイクは自由自在に偽の発言を作り出すことができるそうです。

こうしたビデオは、インターネットからプログラムコードを有料または無償でダウンロードして作れるというから驚きです。以前、この連載で述べた「3Dプリンターによる銃製造マニュアルのダウンロード」とほとんど同じでしょう。

考えてみれば、ネット上には政治家やタレント、セレブなどを撮ったビデオ映像があふれています。こうした素材に興味を持つ者はだれでも簡単にインターネットからソースコードをダウンロードし、手軽にフェイクビデオが作れる。これだけでも、なんとなく嫌な予感がするではありませんか。

米国のある専門家はこう指摘します。「私たちが観ている人物が本人なのか、本人が話していることなのか、それともフェイクなのか区別できない時代に入りつつあります。これは大きな問題です」と。アメリカ国防高等研究計画局(DARPA)は、すでにこうしたフェイク画像や映像を見破るための技術の開発に着手しているそうですが、今のところ、フェイクを特定するためのプロセスがとても複雑で、かつ時間もかかると言われています。

しかし仮に世の中にディープフェイクが広まっても、ユーザーはそれを危険なものとは見做さないでしょう。むしろ面白がって繰り返し観るに違いない。過激なYoutube映像ほど数えきれないほどの人が閲覧している現状からもそれは明らかです。しかし、それに慣れ親しんで感覚が麻痺してしまうとやっかいです。自分が観ている映像の真偽の判断がつかず、リテラシーが崩壊してしまうのですから。

■ディープフェイク・ビデオがもたらすさらなるリスク

筆者が観た限りでは、フェイクビデオにはパロディやウケをねらって一目で加工したことがわかるようなものから、先ほどのオバマ前大統領のような真偽の区別がつかないリアルなものまでいろいろあります。一般にこの種のフェイクビデオは、今現在はコメディなどで使われていて、あまり害はなさそうにも見えます。とは言え、その延長上に犯罪リスクの危険性を考えないわけにはいきません。

例えば映画俳優や実業界のセレブなどは世間から注目と賞賛を浴びる一方で、彼ら彼女らを心よく思わない人々もいる。そんな人たちが悪意をもって、いやがらせとか報復のために俳優やセレブを貶めるようなディープフェイク・ビデオを作り、ネットに拡散させるかもしれません。

しかし実のところ、ディープフェイクの拡散をもっとも警戒しているのは米国の政治家や情報当局なのです。最悪の場合、例えば次のような国家レベルの脅威となり得るようなケースが考えられると言います。

(1)大統領や議員選挙などで相手候補者に「トンデモ発言」を言わせたビデオを流して足を引っ張る。
(2)証拠映像をきっかけに告訴された政治家や実業家が、「それはディープフェイク映像だ。私は一言もそんなことは口にしていない」と弁解し、言い逃れの手段に利用する。
(3)国民を分断したり、良好な国家間の関係を破たんさせる目的で、だれかがトランプ大統領のような国のトップにとんでもない発言をさせた映像を流す。とうてい容認できないような人種差別的発言とか、相手国を挑発して戦闘態勢をとらせるような発言です。こんなことが起これば世界は大混乱するでしょう。

さて、これらは米国の話ではありますが、日本はどうなんでしょうか? 国内でディープフェイク・ビデオがネット上にアップされるのは時間の問題かもしれません(いや、どこかでもう映像が流れているかも?)。もしそうなったら、私たちはどう対処すればよいのでしょうか。あまり先行きのことを懸念するのは健康によくありません。けれども今後、まったく気づかないうちにこの種のビデオのとりこになったり、完全に騙されて誤った認識を持つリスクを抱えていることを、私たちは心の隅にとどめておく必要があるのではないでしょうか。

(了)