ガイドラインはあくまで一般的な指針。自社の特性をふまえた基準も必要(イメージ:写真AC)

生成AIの利活用ガイドラインとは

ここまで本シリーズをお読みいただいている方であれば、AIとはどのようなもので、利活用できれば大変便利なツールであると同時に、使い方を誤れば種々のリスクが発生することはご理解いただいているだろう。

そのリスクは、ITすべてに共通のものもあれば、AI特有のものもある。巷で策定が必要だと言われるガイドラインは、AI特有のリスクという観点で定められたものであり、AIの特性を理解していれば、当たり前の内容が記述されているに過ぎないとお気付きであろう。

しかし、当たり前のことが書かれてあるガイドラインなのだが、問題もある。理由は言うまでもないだろうが、ガイドラインとして文字化し定義した瞬間に、その抜け道を通るなど、本来の趣旨と反する行為が発生するリスクも生じるのが世の常であるからだ。

法律であれば、法の抜け道を通る行為は違法性がないとされ、その時点では許容されるだろう。だが、ガイドラインのように法的縛りがなく設定されるルールの場合は事情が異なる。たとえガイドラインに書いてあるままに忠実に運用したとしても、その目的を違えて問題が生じるのであれば、それは不正と言われても仕方がない。結果がすべてなのである。

問題発生の原因は、ガイドライン策定時の記述不足かもしれないし、運用想定の不足かもしれない。ガイドライン通りの運用であったとしても、問題発生時には何の言い訳にもならないということは理解しておく必要がある。

ただし自社基準を満たしても市場で問題が起きれば責任は逃れられない(イメージ:写真AC)

わかりやすい事例で説明しよう。例えば、自社製品の使用時の安全を確保するために、製造時の検査基準や耐久テスト基準などを設定し、確実にそれらを守って出荷されたとしても、市場で安全性の問題が発生すれば責任は逃れられない。その場合、自社検査はクリアしているから問題ないと説明しようものなら炎上は必須であろう。

当然そこには、予期せぬ使用方法や環境の問題もあるだろう。だが、あらかじめその想定がなされ、禁止事項としていない限り、自社検査基準自体の誤りであり、リスク想定が甘いと判断される。

つまり、ガイドラインの例として提示されているのは、あくまで広く一般的に想定される策でしかなく、そのままで使えるわけではない。一般例として参考にしながらも、自社の運用内容、環境条件、関連業務との関係なども含めて、あくまで自社基準のリスク想定を行っていなければ意味はない。

そして、それらの自社条件は生モノであり、時間とともに変化するのも当然だ。定期的な見直し、確認作業は必須である。