OpenAIが開発した対話型AIツール「ChatGPT」が2022年11月にリリースされ、日本でも大きな話題となっている。質問するだけでさまざまな問いに即座に文章で回答してくれるという便利な機能が魅力である半面、その利用にはさまざまなリスクも想定される。ChatGPTをはじめとするAIサービス利用において、いち早く社内向けのガイドラインを策定したクラスメソッド株式会社CISO兼危機管理室長の江口佳記氏に、ガイドラインの策定に至った背景やAIサービスを利用する際に生じるリスクなどをうかがった。

江口佳記氏

ChatGPTはあくまでアシスタントとして活用する

 

Q. 企業のChatGPTの活用の流れをどのように見ていますか?

2022年の末からChatGPTが話題となっています。こうしたAIサービスは、事業を行う上で今後はますます欠かせないものになっていくと思われます。ただ全体的にはまだ活用法を模索している段階で、自社のどの業務にChatGPTを使っていくのかを考えているフェーズと言えるでしょう。

Q. 自社ではどのようにChatGPTを活用していく予定ですか?

ChatGPTでブログなどの文章を全て生成するケースもありますが、情報の精度が高いとは言えないため、正しい情報が出力されるとは限りません。ChatGPTは新たな知識を得たり新たなコンテンツを作成したりするツールとしてではなく、すでに自分たちの頭の中にあることを整理したり、思考の壁打ちをする相手としての使い方が適しているといえます。

当社でもその用途でChatGPTを活用し「業務効率化と価値向上を支援するコンサルティングサービスを開始した」というプレスリリースを作成しました。プレスリリースを作成する前段階では、自社の事業内容と合わせてどのようなコンサルティングサービスができるかを具体化する必要があります。そこでChatGPTを活用して情報や方向性などを整理し、プレスリリースの作成に移りました。

同社が発表したプレスリリース。参考:https://classmethod.jp/news/20230316-chatgpt/
文末には、「※ このプレスリリースは、ChatGPTとの対話により作成しました」と明記されている。

 

AIサービスを使用する際に想定すべきリスクとは

 

Q. ChatGPT活用にどのようなリスクを想定していますか?

web上で情報を入力するChatGPTのようなAIツールの場合、入力した情報がAIの学習に利用される可能性があります。これは避けるべき重大なリスクです。例えばChatGPTの場合、APIとしてプログラムに組み込んで使用する場合は入力した情報がAIに学習されることはありませんが、web上でChatGPTを使用する場合、基本的には学習に使われてしまいます。個人情報や機密情報を入力してしまうとそれが学習に使われてしまい、他のユーザーに対してアウトプットされてしまう恐れがあるのです。

これはChatGPT に限らず、他のAIツールであっても生じるリスクです。AIツールを導入する際には、利用規約やプライバシーポリシー、リファレンスなどを必ず確認しましょう。当社では「DevelopersIO」というサイト上で技術的な発信を行っており、知見や情報を共有しています。ChatGPTの規約についてもサイト上で情報共有していますので、ぜひ参考にしてください。

参考:ChatGPT APIリリースに伴ってOpenAIのAPIデータ利用ポリシーが改定されたので読んでみた/DevelopersIO