高度な知的作業が出来るようになり、AIの活用を検討する企業が増えてきました。しかし、導入リスクを考えると何に対応すべきか疑問ばかりが浮かびます。デジタル庁の資料を参考に、検討します。
■事例:AI導入を検討する
中堅メーカーの経営戦略部で働くAさんは、現在、生成AIソリューションの比較資料に頭を悩ませています。ここ数カ月、社内ではAI活用の方針をめぐり議論が白熱している状況です。発端は若手社員からの要望でした。
「ここ最近の生成AIの進化は目を見張るものがあります。以前は、有料版でなければ使い物になりませんでしたが、今は無料版で十分使えます。業務用であってもセキュリティポリシーを徹底すれば大丈夫じゃないですか?なにより、我が社にとってコスト削減が重要な課題でもあることですから・・・」
Aさんは一理あると感じつつも、その提案に即賛成するわけにはいきませんでした。無料版にはどうしても情報漏洩やデータ管理のリスクがつきまといます。もし、会社の顧客情報などが外部に流出すれば、その影響は計り知れません。
調査を進める中で、デジタル庁が発行した「テキスト生成AI利活用におけるリスクへの対策ガイドブック(α版)」を知りました。「行政向けとはいえ、企業に応用できる部分もあるのでは?」と期待を抱き、内容に目を通してみました。しかし、記されていたのは行政業務を想定したリスク管理方法が中心で、企業独自の課題を解決するための具体例の記載は多くありませんでした。
その一方で、ガイドブックに記載があった「品質評価と品質保証」という考えは、確かにその通りだと思えるものでした。
そこで社内で更なる討議の場を設けました。「無料版の導入はコスト面で有利だが、リスクがゼロではない。逆に有料版の導入は、初期費用や運用コストが高くなるが、管理体制が整備されている。このバランスをどう取るか?」「さらに、我々の業務プロセスにAIをどう組み込むか、その効果測定の仕組みも必要だ」と
議論は白熱しましたが、明確な結論は出ませんでした。
Aさんはその夜、オフィスに残り、頭を整理しようと資料を再度見直しています。競合他社が次々とAIを活用し成果を上げている中、自社だけが慎重に検討を続けている現状が歯がゆいと思っています。
デジタル庁のガイドラインに加え、海外で進むAI規制、例えばEUの包括的なAI規制法やISO標準化の動きも視野に入れなければならないのか?あるいは、独自にリスク基準を構築するべきか?頭の中には次々と疑問が湧いてきています。
※スパム投稿防止のためコメントは編集部の承認制となっておりますが、いただいたコメントは原則、すべて掲載いたします。
※個人情報は入力しないようご注意ください。
» パスワードをお忘れの方