対話型AIが話題です。新たな市場が創出される期待だけでなく、サイバー攻撃への悪用についても、このところメディアを賑わせています。世界のサイバーセキュリティプロフェッショナルの間でも、様々な観点から議論されています。

他方、近年急激に、サイバーセキュリティについて、企業内でのガバナンス上の役割が変化しており、第一防衛ラインのリスクオーナーとして対処する役割よりも、第二ラインのリスクを監視する役割、さらには第三ラインの合理的な保証の役割も求められるようになってきています。そうした背景から、サイバーセキュリティの実務家の間でも、従来よりもスコープを広げて、AIに関する社会的責任論も押さえておきたいという考えもでてきているようです。

先月17日の本年初めての「リスクトレンド研究会」では、人工知能と倫理について、サイバーセキュリティの観点からお話しさせて頂きました。今回は、少し茶目っ気を出して、同じ問題提起(“The Case for Social Responsibility in AI”)について、AIとサイバーセキュリティの人智が違う反応をする点に学びたいと思います。まずは、筆者がChatGPTに投げ掛けて得た「回答」を引用し、次に、サイバーセキュリティの権威ある団体ISFのSteve Durbinがジャーナリスト行った対談をポッドキャストから書き起こしたものを比較して、それぞれの「癖」を見てみたいと思います。

では、ChatGPTの番です(2023年2月13日版ChatGPTの答えの要約を筆者が翻訳)。


人工知能(AI)が私たちの生活の中でますます重要な役割を果たすようになるにつれて、AIにおける社会的責任を問う必要性が高まってきています。つまり、AIシステムを設計、開発、配備する者は、その技術が社会に与えうる影響を考慮し、人類に利益をもたらすAIの実現に向けて努力する責任があるのです。

(中略)

まとめると、AIにおける社会的責任は、社会にとって有益なAIシステムを作るために極めて重要であると言えます。それは、危害を避け、信頼を築き、利益を最大化し、イノベーションを促進するのに役立ちます。AIが進化を続け、私たちの日常生活に溶け込んでいく中で、より大きな利益につながる技術を生み出すために、AIにおける社会的責任を優先させることが不可欠です。


噂に違わずスマートな回答が直ぐに返ってきました。そこで、もう一つ悪戯をして、同じ問いを日本語でして、答えを日本語で得ました(かなり時間を要しました)。


AIにおける社会的責任に関する議論は、AIの発展が進むにつれてますます重要になっています。AIは、人間の行動を自動化するために設計されており、人間の意思決定や行動に影響を与える可能性があります。したがって、AIには社会的責任が求められることになります。

AIの社会的責任に関する議論には、次のような問題が含まれます。

1.偏見や差別:AIが人間と同じように偏見や差別を持ってしまうことがあります。これは、AIが訓練データに含まれる偏見や差別的な情報を反映することに起因します。そのため、AIの訓練データを慎重に選定し、偏見や差別を排除する必要があります。

2.透明性:AIの意思決定のプロセスが不透明である場合、人々はその意思決定がどのように行われたのか理解することができません。そのため、AIの意思決定のプロセスを透明化する必要があります。

3.誤った意思決定:AIの意思決定に誤りがある場合、それが深刻な結果をもたらす可能性があります。そのため、AIの意思決定に対する責任を誰が負うのかを明確にする必要があります。

4.セキュリティ:AIがハッキングやマルウェア攻撃の対象になる可能性があるため、AIのセキュリティについても注意を払う必要があります。

AIにおける社会的責任についての議論は、技術者、法律家、政策立案者、学者、市民社会など、多くの関係者からなる多面的な議論が必要です。AIが社会に良い影響を与えるためには、AIの開発や運用において社会的責任が考慮され、監視される必要があります。


こちらも、賢い答案でしたが、英語の前向きな文脈とはかなり違う、慎重な論調になっている点が目に付きます。それぞれの言語空間で学んだArtificial Intelligenceと人工知能は兄妹のようでも、実は、文化背景(親)が違うということでしょうか。

さてそれでは、今度は、人間同士の対話です。

(次のページから引用)