日本で稼働中のピアノは約600万台。これをきちんとメンテナンスするには、8000人から1万人の専門家が必要となるそうですが、これは現在のピアノ調律師の数と見合っているとのことです(一般社団法人日本ピアノ調律師協会)。他方、ITセキュリティー人材だけでも数万人規模で不足しているといわれており、その上近時では、新技術や新しい働き方のチューニングもその役目となってきたセキュリティー責任者の悩みは深いことでしょう。

ピアノの調律の場合は、「ラ」の音からピッチを決め始めるそうですが、セキュリティーの場合は、どうでしょうか? 今回は一番厄介そうな、人工知能であるAIと天然のコンピューターであるヒトを調律する初手をご紹介したいと思います。

ISFコミュニティーに参加している国際企業のCISOたちは、どういうツールにより初手を指しているのでしょうか。その共通するところを、Steve Durbinのブログに確認してみたいと思います。


犯罪者は人工知能でサイバー攻撃に拍車をかける

Steve Durbin, Chief Executive of the ISF
Source: Teiss
September 1, 2021

全知の機械の足下に人間がひれ伏すという反ユートピア社会像がわれわれの頭にはびこる中、人工知能(AI)が社会の主流に躍り出てきたことで、AIができることは何で、AIの潜在的なリスクは何なのか、について多くの偽情報や混乱も生じてきています。しかし、AIがもたらす価値向上や真相解明力などは非常に大きな力となります。

(イメージ:ISF)

学習し、推論し、自ら行動もできるようなコンピューターシステムの開発は、まだ始まったばかり。それに、機械学習のためには膨大なデータセットが必要です。また、現実のシステムの多くには、例えば自動運転車のように、物理的なコンピュータービジョンのセンサー類、リアルタイム意思決定のための複雑なプログラミング、ロボット工学の複雑な組み合わせも必要。AIを導入しようとする企業にとっては、配備そのものはまだしも、AIに情報へのアクセス権を与えてある程度の自律性を持たせるとなると、熟慮が必要になる重大なリスクを伴います。

AIに伴うリスクは何か?

AIシステムにおいては、意図的でなくともバイアスはつきもので、プログラマーあるいは特定のデータセットによって偏りが固定化することがあります。運悪く、この偏りが判断ミスあるいは潜在的な差別にまでつながると、法的な影響が及び、風評被害が生じる恐れがあります。また、AIの設計に不備があると、調整が上振れしたり下振れしたりして、AIの判断が特異過ぎたり、当たり前過ぎたりすることになります。

これらのリスクは2つとも、人の目による監視体制の確立や、AIシステム設計段階での厳格なテスト、さらには運用開始後の緊密なモニタリングによって軽減はできます。判断能力の測定と評価を行い、新しいバイアスが生まれたり、疑わしい意思決定がなされたりした場合には、迅速に対処する必要があるでしょう。

こうした脅威は、設計や実装段階における意図しないエラーや失敗に基づくものですが、人が意図的にAIシステムを破壊したり、AIを武器として操ったりしようというときには、別のリスクが生じます。