AIで証人喚問も変わっていくかもしれません

■"記憶にございません"では済まない話

昔、国会の証人喚問で都合の悪いことを聞かれたある実業家が、「記憶にございません」を連発して流行語になりました。あれから40年以上を経た今日、依然として「記憶にございません」でその場をしのごうとする人々がいることは、なんとも残念なことです。こういう問題こそ、AIで何とかならないものでしょうか。どんなにうそをついても、あるいは電子的にやり取りしたり、テキストで保存したものを消去したつもりでも、AIを駆使すれば、時間をさかのぼって悪事の痕跡をやすやすと暴き出すことができるかもしれません(これはあくまで筆者の希望的観測ですが)。

ところで世の中の現実を見ると、逆にAIが証拠隠しや他人を陥れるために悪用されかねない、気になる予測も出ています。その予測とは「ビデオ」にまつわるAIのリスクのことです。一言で言えば、「あれ、私そんなことを言いましたか?」と思ってしまうような、本人が口にしたことのない言葉をあたかも本人自身が話したようにビデオを加工する技術が出てきたのです。

この技術は「ディープフェイク(Deepfake)」と呼ばれているもので、言葉の由来はフェイスマッピングとAIのディープラーニング(深層学習)から来ています。本物(本人)の映像とほとんど変わらないリアルさが特徴の「偽」のビデオ映像のことです。

例えば、米国のオバマ前大統領の既存のビデオをコンピューターに取り込んで、オバマ氏にあることないこと、なんでも言わせることができます。CGで加工したようなぎこちなさはなく、実に自然な表情と声を真似ることができる。これは実際にBuzzFeedというサイトに掲載され、注目を浴びました。

■参考記事(VOA)
https://www.voanews.com/a/i-never-said-that-high-tech-deception-of-deepfake-videos/4463932.html