AIは圧倒的な情報量で人間の思考に近づいている
東京大学次世代知能科学研究センター 松原仁教授に聞く

 

東京大学情報理工学系研究科

次世代知能科学研究センター教授

松原仁氏 まつばら・ひとし

1959年生まれ。81年東京大学理学部情報科学科卒業。86年同大学大学院工学系研究科情報工学専攻博士課程修了。電子技術総合研究所(現産業技術総合研究所)を経て、2000年公立はこだて未来大学システム情報科学部教授、2020年から現職。工学博士。人工知能、ゲーム情報学を専門とし、2014年~16年に第15代人工知能学会会長を務める。「AIに心は宿るのか」(インターナショナル新書)など、著書多数。


インターネット上の大量のデータを組み合わせて新しいデータを生成するAI(人工知能)が脚光を浴びている。なかでも人間のように会話する米オープンAI の「Chat GPT」が与えた衝撃は大きく、一般企業においても経営改革の切り札としてAI技術への関心が急拡大。一方で未知なるテクノロジーへの脅威が指摘され、リスクや倫理の観点から使用を規制する動きも広がっている。AIの進化で人間の仕事はどうなるのか、未来は明るいのか。日本のAI研究の第一人者で東京大学次世代知能科学研究センターの松原仁教授に聞いた。

Chat GPTとのうまい付き合い方

――米オープンAI の「Chat GPT」を筆頭に、生成AIが多方面で脚光を浴びています。いまの動きをどうご覧になっていますか?
Chat GPTとその仲間の登場は、AIにとって非常に大きな出来事だと受け止めています。AIは1960年代に第1次ブーム、80年代に第2次ブーム、2010年代からはディープラーニング(深層学習)を中心に第3次ブームが進んできました。Chat GPTは次の第4次ブームの先駆けになるかもしれません。

言葉を操る存在というのは、これまでは唯一、地球上に人間だけでした。それを人間以外のものが、人間と同等かそれ以上にうまく操る。大げさにいえば、人類史上初の経験です。インパクトは極めて大きい。仕事を含め、人間の生活を劇的に変えると思います。

まるで人間のような対話ができる対話型AIが登場した衝撃は大きい(イメージ:写真AC)

実は、入力した質問にそれなりの答えを返してくれる対話型AIは以前からありました。チャットボットと呼ばれるもので、Chat GPTもそれがベースです。その意味では、大きく進化したわけではありません。ただ、あれだけ長い文章を理路整然と瞬時に返すことはできなかった。これほど注目されているのはそれが理由です。

Chat GPTの前の「GPT-3」というモデルは「良いこともいうけれど変なこともいう」というAIでした。そのため人間が回答に点数をつけ、NGワードを学習させた。卑猥な言葉や差別的な言葉を人海戦術でつぶしていったのです。結果、Chat GPTはまともなことをいうようになった。逆に、まともなことしかいわなくなりました。

うがったいい方をすれば、面白味がなく優等生っぽい。ただ、優等生の友だちは役に立ちます。タブーなことはいわないけれど、一般的な知識は豊富に持っている。簡単なレポートや長文の要約などは瞬時にやってくれて、それがだいたい合っています。

これまでさんざん文章と格闘し、1時間、2時間かけて作成していたレポートがものの数分でできてしまうわけですから、仕事のあり方は自ずと変わります。人間の仕事がAIに取って代わられるというのは、前々からいわれていたことですが、今回は望むと望まざるとにかかわらず、そうなるでしょう。

――とはいえ、AIはアウトプットに虚偽を含むことが問題視されています。
そうですね。確かにChat GPTはよく間違えます。ご承知のとおり、Chat GPTは「わからない」とはいいいません。知らない人の名前を聞くと、ありもしない経歴をしゃあしゃあとでっち上げてくる。わからないとは意地でもいわず、知っていることを適当に答える、そんなところもなんとなく優等生的です。

それでも、Chat GPTのあとに出た有料の「GPT-4」というモデルは、結構「わからない」というようになり、間違いも減ったと聞いています。いまはライバル社がほかにもいろいろな対話型AIを出してきていますから、競争のなかで工夫が積み重ねられると、間違いはどんどん減っていくでしょう。

ただ、原理的にはディープラーニングの応用なので、100%の正解はあり得ません。あくまで質問の答えに近いところを、膨大な情報のなかから探して持ってきて、うまくつなげて出す仕組みです。つまり、だいたい合っているというのが、そもそもAIの回答なのです。それが正解かどうかの判定はしていません。

「だいたい合っている」というのが、そもそものAIの回答(イメージ:写真AC)

なので、限りなく正解に近づけることはできても、100%にはならない。そう思って付き合うしかないでしょう。人間がチェックし、直すべきところは直さなければいけないというのは、巷でいわれているとおりです。

――正確さを求めすぎてはいけない、と。
AIは、良くも悪くも人間的です。これまでの機械のイメージとはだいぶ違う。人間は機械に対し正確さを求める傾向がありますから、それが間違えるとなると、不便で使えないという印象を抱くかもしれませんね。

ただ、これが人間なら、いくら優秀でも間違えるのはあたり前です。記憶違いもあるし計算違いもある、だから最終的には自分で判断する。そう思って付き合っているのが人間同士です。AIも同じで、従来の機械とは付き合い方を変えないといけない。

人間も何か聞かれたとき、覚えている情報から何となく答えることがあります。Chat GPTがやっているのもそういうこと。ただし覚えている情報が膨大で、答えは100%ではないけれど、だいたい合っている。だから、優等生の友だちなのです。

「AIは間違えるから事務処理に使わない」という気持ちは、わからないではありません。しかし結局、人間の優秀な部下だって間違える。なので、最終的には上司がチェックし、間違いを修正する。AIも同じです。それでもゼロから作業するより工数は格段に減るでしょう。

意思決定に使う場合も「間違えるから参考にならない」ではなく、ならば同じ質問を人間とAIの両方に聞いてみる。あるいは、違う会社が出している複数の対話型AIに聞いてみるのも手です。大事な意思決定のとき、何人かに相談したり意見を聞いたりするのは、あたり前のことですね。

そんなAIですから、よくいわれるように、壁打ちには非常に便利です。自分の考えを整理したいとき、Chat GPTに聞いて、何か答えてきたらさらに深く聞いて、考えをまとめていく。何か相談したいとき、上司や部下、同僚が常にそばにいてくれるとは限りませんが、Chat GPTはいつもいてくれますから。