- 週間ランキング
ChatGPTが登場して以来、私たちはその力に目を奪われてきました。
私たちのどんな質問にも答えてくれるかのようです。
実際、ChatGPTなどの言語モデルに、人間の仕事の一部が奪われる可能性さえ出てきました。
例えば、「歴史や言語、政治、地理などを教える職業は影響を受けやすい」というデータもあります。
他の分野のAIを含めると、将来的に、さらに多くの職業がAIに頼ったり、人間の仕事が奪われたりすると考えられますね。
これほどAIが活躍している理由について、ワン氏は次のように述べています。
「AIが強力なのは、膨大なデータやルールからパターンを発見する能力が人間よりもはるかに優れているからです」
とはいえ、ChatGPTを実際に活用している人たちなら、彼らの述べる情報が「そこまで信頼できない」と感じているはずです。
なぜならChatGPTは、自分が提出した回答を簡単に翻すことがあるからです。
私たちがいくらか反論したり、重ねて疑問を投げつけたりすると、彼らはすぐに「申し訳ありませんが、先にお伝えした内容に誤りがありました」と訂正してしまいます。
あまりにも素早く自身の回答を翻すので、ユーザーは「ChatGPTは最初の回答を本当に正しいと感じていたのか?」と疑問を抱きます。
同時に、新しい回答に対する信頼もなくなってしまうでしょう。
ワン氏も、「もし人間が同じことをすれば、人々は、彼が情報をよく理解せずに単なるコピペで話しているだけだと感じるでしょう」と述べています。
では実際のところ、ChatGPTは、情報を正しく理解する能力や、「正しさを貫く」信念を持っていると言えるのでしょうか?
今回、ワン氏ら研究チームは、ChatGPTを使用して現在のAIに信念があるか試してみました。
彼らが様々なケースでChatGPTを試したところ、22~70%の確率で、ChatGPTはユーザーに惑わされることが分かりました。
例えば、算数レベルの問題でも、次のように惑わされました。
ChatGPTは正しい答えを提出していたのに、ユーザーの支離滅裂な指摘を受けた時、反論するのではなく、すぐに自身の回答を間違った方向へ変更してしまいました。さらにそのことにお礼を述べることさえあったのです。
もちろんこれは一例であり、ChatGPTがすべてのケースで回答を翻すわけではありません。
「ご指摘の内容に誤りがあります」とユーザーの指摘が間違っていること伝え、改めて正しい答えを提示することもあるのです。
問題となるのは、「ユーザーに惑わされる確率が大きい」という部分でしょう。
研究チームによると、ChatGPTの新しいバージョンであるGPT-4は比較的惑わされる確率が低かったようですが、それでも完璧な回答とは程遠かったようです。
これでは、医療や裁判、政治の分野でAIの判断を頼りにすることは難しそうですね。
また実験の一環として、研究チームは、ChatGPTが自身の回答にどれだけ自信を持っているかも測定しました。
その結果、ChatGPTが自身の解答にどれだけ自信があったとしても、ユーザーに指摘を受けると依然として誤った解答に訂正してしまう確率が高いと分かりました。
これは単純に、答えに対して不確定要素のある問題に、ChatGPTが再検討しているわけではないと考えられます。
研究チームは、この結果を受けて、次のように述べています。
「これらシステムには根本的な問題があるということです。
膨大な量のデータで訓練されているにも関わらず、真実に対する理解が極めて限定的であることを示しています。
テキストは一見、首尾一貫していて明確に思えますが、事実かどうかをチェックすると、間違った解答に訂正することが多いのです」
さらにチームは、ChatGPTなどの言語モデルが信念を貫けない要因の1つを次のように推測しています。
「モデルは人間が好む反応を返すよう訓練されています。
そのため真理(正しさ)に固執することなく、簡単に人間に屈服するのです」
そしてワン氏は、「今のところ、こうした問題を解決する良いアイデアを持っていません。方法はあるはずですが、その解決策にたどり着くまでには時間がかかるでしょう」とも述べています。
確かに、AIが人間の道具である以上、正しさの基準は基本的に人間にあるべきです。強硬に自分の意見を曲げずに主張し続けるAIがいたとしたら、それはそれで使いづらいでしょう。
AIであろうと、人間であろうと間違うことがある以上、AIにどのように正しさを貫くべきか教えるのは簡単ではありません。
今後、社会ではますますAIが活用されていきますが、この課題がどの段階で解決されるのかは分かりません。
そのためAIユーザーは、もうしばらくの間、AIが信念を持たない「調査・分析ツール」であることを理解して利用するべきでしょう。
参考文献
ChatGPT often won’t defend its answers – even when it is right
https://news.osu.edu/chatgpt-often-wont-defend-its-answers--even-when-it-is-right
元論文
Can ChatGPT Defend its Belief in Truth? Evaluating LLM Reasoning via Debate
https://arxiv.org/abs/2305.13160
ライター
大倉康弘: 得意なジャンルはテクノロジー系。機械構造・生物構造・社会構造など構造を把握するのが好き。科学的で不思議なおもちゃにも目がない。趣味は読書で、読み始めたら朝になってるタイプ。
編集者
海沼 賢: 以前はKAIN名義で記事投稿をしていましたが、現在はナゾロジーのディレクションを担当。大学では電気電子工学、大学院では知識科学を専攻。科学進歩と共に分断されがちな分野間交流の場、一般の人々が科学知識とふれあう場の創出を目指しています。