広がるChatGPTの衝撃

ChatGPTの波が、ビジネスの現場に押し寄せています。

LLM(大規模言語モデル)であるGPT-3.5をベースに出力を調整したChatGPTや、その最新版であるGPT-4の性能は凄まじく、APIも公開されたことから、ホワイトカラーの働き方を一変させるとまで囁かれています。カスタマーサポートの自動化や書類の自動作成をはじめとして、さまざまな企業で応用可能な事例が生まれようとしています。

また、LLMについては、転移学習によって法務・人事など特定領域に特化したAIモデルをつくることもでき、活用の幅はほぼ無限に広がっています。

今後のビジネスにおいて、ChatGPTやLLMを「活用しない」ということはあり得ないと言っても良いでしょう。

ChatGPTに潜むAIリスク

しかしながら、AIの活用にはさまざまなリスクが潜んでいます。Robust Intelligenceは国内外の知見をもとに、AIリスクを「機能・品質面のリスク」「倫理的なリスク」「セキュリティ面のリスク」の3つに分類しているため、その分類に沿って説明します。

画像を拡大 Robust Intelligenceの考える「3つのAIリスク」

1.機能・品質面のリスク

画像を拡大 AIは時に「嘘をつく」

学習時のデータと実データの間での解釈や分布の違いから、事実と異なるアウトプットを出力してしまったり、推論の精度が下がったりすることがあります。

ChatGPTもよく「嘘をつく」ことが知られており、自信満々に存在しない事実を語る「幻覚 Hallucination」などの問題が有名です。同じくLLMベースのチャットボットであるGoogleのBardが、発表時のデモで誤った回答を出力し、株価下落にまで繋がったことは記憶に新しいでしょう。また、安全管理や医療、人事などのハイリスク領域のAIではこの問題はより深刻な事案に発展します。

2.倫理的なリスク

画像を拡大 差別や偏見がAIの推論結果に影響

続いて、AIが差別的な出力や犯罪につながる出力を行うリスクが存在します。この問題は、実データ自体が社会のバイアスなどを反映するために起きる問題です。

実際、ChatGPTが子どもの性搾取を含むコンテンツを生成した問題や、画像生成AIの出力において人種の偏りが起きた問題が知られます。また、米大手HRテック企業の採用AIが差別をしているとして訴訟を受けるなど、生成系AI以外も含めさまざまなケースでこの問題が取り上げられています。

3.セキュリティ面のリスク

画像を拡大 GPT-3に対するPrompt Injection(AIチャットボットに対する攻撃)

最後に、悪意あるユーザによって望ましくない出力が行われたり、個人情報や機密情報が漏洩するリスクがあります。また生成系AIでは、アウトプットが著作権侵害にあたるといったリスクも指摘されます。

ChatGPTにおいても、特定のプロンプトによって出力の規制を解除できるという報告がなされていますし、ユーザに対して別のユーザの個人情報が表示されるという不具合が生じたこともありました。

これらの課題の多くは、国内外の政府による規制やガイドラインによって対応が求められているものです。また、個人情報保護法や著作権法など、「AI」を名指していないものの深く関わる法令も多数存在し、リスク管理は多様な視点で行う必要があることがわかります。