AI(人工知能)は既に生活の中でいろいろな働きをしてくれています。人にとって利便性や快適性が高まり、幸福度が増進することが期待されています。一方で、何十年前にインターネットが登場した際には、不器用な我々が戸惑いながらもどうにか使いこなすことで徐々に浸透していきましたが、AIは我々が努力せずとも、既にいろいろな製品やサービスに組み込まれていることから、利用者としては、ほとんど意識していないことも多い点がかえって気になります。

この普段は意識されていない存在が、意思をもっていて悪さを始めると、家の中でも街中でも移動中でも想定外のことが起こるのでは、という懸念があるのです。こうした話もSFの世界ではなく、現実になるかもしれません。改めてAIに目を向けて観察すると、好奇心だけではなく、不気味さや、ひいては恐怖心や混乱が生じかねません。AIをしっかり統御して、「邪心を持たせない」ためには、どうすれば良いのでしょうか?

そう、もう80年前にもなります。アイザック・アシモフがロボットの暴走を想像して、かの有名なロボティクス三原則を考案したのは。。。

第一条
ロボットは人間に危害を加えてはならない。また、その危険を看過することによって、人間に危害を及ぼしてはならない。

第二条
ロボットは人間にあたえられた命令に服従しなければならない。ただし、あたえられた命令が、第一条に反する場合は、この限りでない。

第三条
ロボットは、前掲第一条および第二条に反するおそれのないかぎり、自己をまもらなければならない。

— 2058年の「ロボット工学ハンドブック」第56版、『われはロボット』より(ウィキペディア「ロボット工学三原則」から引用)

 

この三原則の「ロボット」を「AI」に置き換えて、AIのプログラミングには、必ず入れ込むという法律を作ったら、どうでしょう?いやいや、そう簡単にはいかないのが、この世の常です。

ISFでは、AIと情報セキュリティの交錯する課題や期待について、国際的な実務の最前線を紹介するブリーフィングペーパーを公にしています(”Demystifying Artificial Intelligence in Information Security”)。他方、AIとビジネスの問題領域では、情報セキュリティの課題に加えて、「倫理」の視点を忘れることはできません。この点に焦点を当てて書かれたISFのSteve Durbinによる論説を、世界経済フォーラムのサイトから引用して一緒に読んでみたいと思います。
 

(ここから引用)


より安全なオンライン空間を実現するために、いかにAIを責任を持って活用するか。

Published: Aug 16, 2022
SOURCE:World Economic Forum
 Steve Durbin, Chief Executive, Information Security Forum

(Image: ISF)

 

人工知能(AI)は、日常生活にすっかり溶け込み、またコンピュータの進歩に加え、データサイエンスや巨大なデータが利用可能になり、猛烈な勢いでビジネスツールになりました。グーグルアマゾンメタなどの大手ハイテク企業は、現在、AIを組み込んださまざまなシステムを開発しています。この技術は、人間の話し方を真似たり、癌を検出したり、犯罪行為を予測したり、法律の文書を作成したり、アクセス上の問題を解決したり、人間よりも優れた働きを発揮することが可能です。企業にとってAIは、ビジネス上の成果を予測し、プロセスを改善し、大幅なコスト削減で効率化を実現することを約束するものと言えます。

しかしながら、AIに対する懸念は依然として高まっています。

一部の専門家からは、AIは意識を持つ存在と見做されるほど、AIのアルゴリズムは非常に高性能になっています。そのため、何らかの破損や、改ざん、偏見、あるいは差別などがあれば、企業や人命そして社会にも大きな影響を与える可能性があります。

AIアルゴリズムとデジタル世界の差別問題

AIが下す判断が、次第に人々の日常生活に大きく影響を与えるようになりました。そこで、AIを無責任に用いてしまうと、人種による選別、行動の予測、あるいは性的指向の特定といったことに現れる人の偏見や差別的な対応を助長しかねません。このように偏見があらかじめ組み込まれてしまうのは、AIには、人が与える学習データの量が多ければ多いほど、人のもつ偏見が影響してしまいやすいからなのです。

また、機械学習アルゴリズムが、女性、有色人種、特定の年齢層の人々など、ある特定の集団を十分に含まないデータでトレーニングおよびテストされた場合なども偏見が生じる契機となりえます。例えば、顔認識技術において有色人種は特にアルゴリズムによる偏見の影響を受けやすいことが研究で示されています。

さらにまた、使い方によって偏見が生じることもあります。例えば、特定のアプリケーションのために設計されたAIアルゴリズムが、本来の目的とは異なる用途で使用され、その結果、出力が誤って解釈されることもあるのです。

AIアルゴリズム性能の検定問題

AIがもたらす差別は、抽象的で分かりにくく、微妙、不明瞭で、検出も困難なことがあります。また、ソースコードは非公開であったり、アルゴリズムがどのように適用されているのか、監査人も知らなかったりする可能性もあります。AIアルゴリズムの内部に入り込み、それがどのように記述され、応答しているかを確認することは、想像以上に難しいのです。

現代のプライバシー保護法制というものは、通知と選択(オプトアウト)の原則に依拠しているため、結果として消費者に長大なプライバシーポリシーへの同意を求める告知書が相次ぎ発行されますが、その内容は、めったに読まれることはないままとなります。そのような告知書のシステムがAIにも適用されるならば、消費者と社会におけるセキュリティやプライバシーに深刻な影響を与えることになるでしょう。

AI兵器の問題

本格的にAIを利用したマルウェアはまだ存在しないかもしれませんが、人工知能を備えたマルウェアが攻撃者の能力を高めるに違いないと断じたとしても、、あながち間違いではないでしょう。たとえば、環境を学習して新たな脆弱性を特定しそれを攻略するマルウェア、AI技術を駆使したセキュリティに対する耐性テスト用のツール、誤った情報をAIに植え付けるマルウェアなど、その可能性は無限大です。

AIによって操作されるデジタルコンテンツは、既に極めてリアルな個々人の生き写しをリアルタイムで人工合成するために使用されています(ディープフェイクとも呼ばれます)。その結果として、ディープフェイクを駆使する攻撃者たちは、高度な標的型ソーシャルエンジニアリング攻撃を行い、金銭的な損害を与え、また世論を操作し、競争優位に立つことになるのです。