AIツールが注目を集めている。実際の仕事に、組織として活用するというところまでに進んでいる組織は少ないかもしれない。とはいえ、多くの従業員は、組織がゴーサインを出す前に、実際に自分の仕事で活用を試みることがあるかもしれない。事実、米国の従業員2000人を対象としたある調査によれば、57%がチャットGPTを試していて、16%は定期的に職場で利用しているという。AI使用に関する企業としての方針を待たず、潜在的なリスクを完全には理解せずに、利用している従業員がある程度存在することは容易に想像できる。

従業員が生成AIツールに関わるリスクを正しく理解し、安全に利用できる体制を整えることは喫緊の課題かもしれない。

セキュリティリスクを知る

生成AIではAIが提供する情報を生成するために、多くの入力情報を必要とする。入力情報が多いほど、出力情報の質が向上するからである。ところが、入力された情報は、その性質に関係なく、すべてがツールのデータセットとして永久に保存されることになる。同じプラットフォームを活用するすべての人がアクセスできるものになってしまう。ここに大きなリスクが存在するわけである。

また、このAIプラットフォームのインフラに侵入すれば、他のユーザーがどのような質問を投げかけたかといった情報も入手可能となるかもしれない。答えとしての出力情報だけでなく、そうした問いそのものも価値がある情報であるため、ここでも情報漏洩となるリスクがある。

このような社員が使う場面でのリスクに加えて、サイバー犯罪者が巧妙にAIを活用するかもしれない。視覚的なフェイク、音声技術も駆使して上司や同僚があたかも連絡してきたかのような状況を作り込み、騙しにかかるかもしれないリスクも存在するのである。