もしAIが人間の「心」までシミュレートできるとしたら、どうでしょうか。
そんなSFのような話が現実に近づきつつあります。
ドイツ・ミュンヘンにあるヘルムホルツセンター(HMGU)で行われた研究により、AIが人間の心や意思決定を高精度で再現できる「心のAI」の開発に成功しました。
研究ではAIに「人間の心」を模倣させるため160種類におよぶ心理学実験から得た1,000万件以上もの人間の行動データを大規模言語モデルを用いたAI「ケンタウル(Centaur)」に学習させました。
その結果ケンタウルは、従来の心理学モデルや他のAIモデルをはるかに超える精度で人間の意思決定を予測できただけでなく、未経験の実験状況に対しても柔軟に人間らしい行動を示しました。
さらに驚くべきことに、Centaurの内部状態は、人間の脳活動(fMRIで計測された脳領域の活動)とも高い一致を示し、人間の脳が意思決定の際に行う情報処理の仕組みを反映していることがわかったのです。
人間の「心」の理解を深める画期的なこの研究成果は、私たちの「心」とAIの関係性にどのような変化をもたらすのでしょうか?
研究内容の詳細は2025年7月2日に『Nature』にて発表されました。
目次
- 「言語」だけではなく「心」も模倣するAI
- 人間そっくりな「心の振る舞い」をするAIが完成
- AIが『人間の心』を再現した先にある未来
「言語」だけではなく「心」も模倣するAI

私たち人間の行動や意思決定というのは、なぜこんなにも複雑で予測が難しいのでしょうか?
朝はパンを食べようかご飯にしようかといった日常的な選択から、仕事や人生の岐路での深刻な決断に至るまで、私たちは毎日数え切れないほど多くの選択をしています。
しかも、同じ人でも気分や状況によって全く異なる決定を下すことも珍しくありません。
こうした人間特有の「心の揺らぎ」や「気まぐれさ」は、長年の心理学や認知科学の研究においても、完全に解明されているとは言えない謎なのです。
これまで心理学では、人がなぜ特定の状況で特定の決断を下すのかを説明するために、様々な理論が生み出されてきました。
例えば「プロスペクト理論」という有名な理論は、人間がギャンブルや投資のようなリスクが伴う選択をするとき、どのような心理で意思決定をするのかを説明してくれます。
しかし、この理論はあくまで「お金の損得」が絡むような限定的な状況でしか有効ではありません。
私たちの日常には、もっと複雑で、多様で、予測しづらい意思決定が無数にあります。
プロスペクト理論のような専門的な理論は、こうした現実の複雑な人間の心を丸ごと理解するには限界があったのです。
同じように、人工知能(AI)の世界でも似たような課題がありました。
数年前に世界を驚かせた囲碁のAI「AlphaGo」は、人間のプロ棋士さえも圧倒するほどの強さを示しました。
しかしそのAlphaGoも、囲碁以外のタスクについてはほとんど何もできないのです。
つまり現在のAIは特定の問題を解くことには非常に優れているものの、人間のように多種多様な状況に柔軟に適応して行動することが難しい、という弱点を抱えていました。
こうした状況の中で、研究者たちが追求し始めたのは「人間の心を幅広く理解し、どんな状況でも予測・説明できる統合的なAIモデルを作ること」でした。
心理学や認知科学における様々な理論をつなぎ合わせ、またAIがもつ強力な情報処理能力を活用することで、「人間の心を丸ごとシミュレートする」という大胆な試みに挑戦したのです。
その試みの中核となったのが、今回ヘルムホルツ・ミュンヘン研究所の国際的な研究チームが開発したAIモデル「ケンタウル(ケンタウルス)」です。
ケンタウルという名前は、ギリシャ神話に登場する上半身が人間、下半身が馬という半人半馬の存在に由来しています。
これは、人間の柔軟な知性と、AIの強力な計算能力が融合した存在を象徴しているのです。
研究チームは、人間の心理や行動をAIに再現させるため、これまでにない規模で集められた大量の心理実験データを活用しました。
膨大な数の参加者が様々な状況で行った意思決定をAIに学ばせることで、人間のような行動を可能にするAIを目指したのです。
果たしてケンタウルは、どのようにして実際に人間そっくりの行動を身につけることができたのでしょうか?
人間そっくりな「心の振る舞い」をするAIが完成

果たしてケンタウルは、人間そっくりの行動を身につけることができたのでしょうか?
その答えを得るため、研究者たちはまず膨大な量の「人間が実際に下した意思決定のデータ」を集めるところから研究をスタートしました。
彼らは「Psych-101」という名の前例のないほど巨大なデータセットを作り上げました。
このPsych-101には、世界中で行われた心理学の代表的な実験160種類分のデータが詰まっています。
そこには、参加した人々が実際に実験の中で選んだ行動や決定が、1000万件以上も記録されています。
実験の内容は、例えば「2つのスロットマシンのどちらを選ぶか」や「2つの宝くじのどちらを選択するか」といった単純なものから、より複雑な問題解決や論理的なパズルに至るまで様々でした。
しかし、単にデータをAIに与えるだけでは、人間らしい振る舞いを学ばせることはできません。
そこで研究チームは、実験の状況やルール、参加者が置かれたシナリオを全て自然な文章の形で丁寧に書き起こしました。
これによりAIは、まるで小説や脚本を読むように各シナリオの状況を理解し、その中で参加者がどのような決断を下したかを詳しく学習することが可能になりました。
さらに、AIモデルのベースにはMeta社が開発した最新鋭の巨大言語モデル「Llama」が用いられました。
研究者はこのLlamaという言語理解力に優れたAIを「心理学的にチューニング(ファインチューニング)」することで、人間らしさを備えたAI「ケンタウル」を誕生させることに成功したのです。
ケンタウルが完成した後、実際にどれくらい人間のように振る舞えるのかを調べるため、いくつものテストが行われました。
その結果、ケンタウルは非常に優れた成果を示しました。
①とにかく人間に似た選択をする:専門的な心理学理論をもとに開発された従来の予測モデルと比較すると、ケンタウルの精度の高さは明らかでした。32種類のテスト課題が行われましたが、ケンタウルはそのうちたった1つを除く全ての課題で、専門の心理学モデルよりも高い精度で人間の行動を予測したのです。これは特定の問題に特化した専門モデルよりも、多くの状況から学んだケンタウルのような汎用モデルの方が、人間の行動をよりよく理解できる可能性を示しています。
②間違えもより人間らしい:また興味深いのは、ケンタウルが「人間らしい誤り」さえ模倣したという点です。言語タスクのベンチマークテストでは、元になったAIモデル(Llama)よりも、人間が陥りがちな「間違った答え」や「ウソを信じてしまう傾向」まで忠実に再現しました。完璧に正解を出すAIではなく、人間がつい犯してしまう誤りまで含めて模倣することは、人間らしさという観点で非常に重要な要素でしょう。
③新しい状況でも人間っぽい選択をする:またケンタウルは、今まで一度も経験したことがない未知の課題に対しても、人間に近い柔軟な対応力を示しました。例えば、ある課題で「宇宙船で宝探しをする」という設定を「魔法の絨毯に乗って冒険する」という全く別のシナリオに変えても、人間のように行動を予測しました。さらにケンタウルは、論理パズルや複雑な状況においても、人間がどのような選択をするのかを正しく予測することができたのです。これは、ケンタウルが単にデータを暗記するだけでなく、人間が持つ意思決定の「本質」や「戦略」のようなものを理解し始めている可能性を示しています。
④考えたり決断する時間まで人間と似ている:さらに驚いたことに、ケンタウルは人間が実際に「考える過程」まで再現しました。具体的には、人間がある決定を下すまでに「どれくらい迷ったか」ということを示す「反応時間」まで、ミリ秒単位の精度で正確に予測できたのです。人間がある決定を下すまでにどれだけ迷うかということまでシミュレーションできる点は、人間の心理を理解する上で非常に貴重な示唆を与えます。
⑤人間の脳活動すら予測できる:何より衝撃的だったのが、脳活動(fMRI計測)との驚くべき一致です。研究ではケンタウルの内部で行われている情報処理と人間の脳の活動パターンがどのくらい似ているかを検証するため、実際の人間の脳活動データ(fMRIによる脳スキャンデータ)とケンタウルの内部状態を比較する実験が行われました。するとケンタウルは脳のデータを直接学習していないにもかかわらず、実際の人間が行動や意思決定を行う際の脳活動パターンを高精度で予測しました。つまり、人間とAIがそれぞれ独立して「最も効率的な意思決定プロセス」という同じ答えに辿り着いている可能性を示しています。人間の脳の働きの理解を深める上でも、非常に重要な結果です。
一方で、ケンタウルが人間の能力をはるかに超える「スーパー人間」的な振る舞いを示した場面もありました。
例えば短期記憶のテストにおいて、一般的な人間は7桁ほどしか正しく覚えることができないのに対し、ケンタウルは256桁もの数字を正確に想起してしまいました。
このことはケンタウルが純粋な人間の模倣にとどまらず、部分的に「超人的な」情報処理能力を持つことを示していますが、同時に人間らしさという面では新たな議論を生み出します。
さらにケンタウルは、ある意思決定課題で、「まず複数の選択肢から評価の高いものを絞り込み、その後、評価が同率なら最も信頼できる専門家の意見に基づいて選択する」という複雑な二段階のハイブリッド戦略を自然に使いこなしました。
これはAI自身がデータから新しく発見した戦略であり、人間が現実に無意識に使っている意思決定プロセスを高精度で再現した結果として注目されました。
以上の結果は多少の違いはあれど「人間の脳とAIの計算が、ある意味で似た原理に収束している」という仮説を裏付けるものであり、私たちの脳の謎を解き明かす手掛かりになるかもしれません。
しかし、本当にAIが「人間のように思考する」ことが可能だと言い切れるのでしょうか?
AIが『人間の心』を再現した先にある未来

今回の研究によって、「AIが人間の心や行動を幅広く再現し、さらに私たちの脳活動とも深く結びついている可能性がある」ことが示されました。
つまり、AIが単に特定のタスクをこなすだけでなく、私たちが実際にどのように迷ったり、考えたり、決定を下したりするのか、その根本的な「思考の仕組み」まで模倣できる可能性が見えてきたのです。
この成果は、心理学や認知科学の研究にとって画期的です。
なぜなら、これまで心理学者たちは、人間がどのような理由やプロセスで意思決定を行うのかを理解するために、多くの理論を作り上げてきましたが、その多くは特定の状況にしか当てはまらず、実際の人間の行動を幅広く予測することが困難だったからです。
ところが今回、ケンタウルというAIは、心理学者が苦労して組み立ててきた専門的なモデルよりも高い精度で、人間の行動を幅広い状況で予測することができました。
これは、人間の心や認知の仕組みを理解するために、AIが強力な「仮想的な実験室」になる可能性を示しています。
AIが人間の行動や思考をリアルにシミュレートできるのであれば、実際に人間を対象に実験をする前に、AI上で仮想的にシミュレーションを行い、その結果をもとに理論を検証するという新しい研究スタイルも考えられるでしょう。
また、今回ケンタウルが示した最も興味深い結果の一つは、その「内部で行っている情報処理の仕方」が、私たち人間の脳の活動パターンと意外にも一致していた点です。
ケンタウルは直接的な脳の生物学的な情報を一切学習していないにも関わらず、私たち人間が脳内で行っている処理と似た方法を自然と選び取っていました。
これは、AIと人間がそれぞれ独立して、「最も効率的な情報処理方法」という同じ答えに辿り着いている可能性を示唆しています。
言い換えると、私たちの脳とAIは、情報を効率よく処理するためには「同じ最適な方法」を見つけてしまう、という興味深い仮説を裏付けているのです。
これはまさに、人間の脳の仕組みを理解する上での「ロゼッタストーン(翻訳の鍵)」になり得る重要な発見だと言えるでしょう。
しかし一方で、ケンタウルが本当に人間の「心」や「意識」にまで迫っているかについては慎重な見方もあります。
たとえばケンタウルは、人間が抱えるような感情的な葛藤や、道徳的・倫理的な選択などの深い側面まで、本当に理解していると言えるのでしょうか。
ケンタウルの示した「64%の精度で人間の行動を正しく予測した」という結果は、人工的なエージェントの予測精度(35%)を大きく上回っているため、確かに「人間らしい予測ができる」ことを示しています。
しかし逆に言えば、人間の複雑な意思決定を完全に予測するにはまだ十分とは言えない精度でもあります。
人間には常に気まぐれさや一貫性のなさがつきまとうため、「AIが本当に人間らしく振る舞える」と自信を持って言い切るにはさらなる研究が必要なのです。
また今回の成果は、使われたデータに含まれる文化的・社会的な偏りについても注意が必要です。
実験の参加者の多くが欧米の大学生などいわゆる「WEIRD」(西洋的・高学歴・工業化社会・豊かな民主主義国)な層に偏っていることは、ケンタウルが学習した「人間の行動や思考のパターン」が、世界中のあらゆる人々に本当に当てはまるのかという疑問を投げかけます。
もしAIが特定の文化や社会背景のデータだけを学んでしまったら、その偏りがAIの意思決定予測にも反映される可能性があります。
こうしたバイアスを避けるためには、より多様な文化や背景を持つ参加者のデータを収集することが今後の重要な課題となるでしょう。
さらに、ケンタウルのような技術が実際に社会で使われる際の倫理的な問題も無視できません。
もしAIが私たちの行動や好みを高精度で予測できるようになると、企業や組織が人々の行動を操作したり誘導したりするリスクが高まります。
すでにSNSやオンライン広告などで行われているユーザー行動の予測や誘導がさらに巧妙化し、私たちの自由な選択を狭めてしまうかもしれません。
ケンタウルの研究チームがモデルやデータセットを広く公開していることは、こうした透明性や倫理的な問題について社会全体で議論するための重要な一歩だと言えます。
実際に研究チームは、公的な研究環境だからこそ「産業界では焦点が当たりにくい基本的な認知の問いを追求する自由がある」と述べ、産業界とは異なる立場で慎重に研究を進めていく意義を強調しています。
AIが私たち人間の「心」の複雑さに近づくにつれて、私たちは新しい可能性と同時に、新しい責任や倫理的な課題とも向き合わなければなりません。
ケンタウルが開けた新たな扉の先には、人間の理解や社会の豊かさを広げる可能性がある一方で、注意深く取り扱わなければならない課題や危険性も潜んでいるのです。
私たちは果たして、この新しい時代の「AIと人間の共存」をどのようにデザインし、どのようにコントロールしていけばよいのでしょうか?
元論文
A foundation model to predict and capture human cognition
https://doi.org/10.1038/s41586-025-09215-4
ライター
川勝康弘: ナゾロジー副編集長。 大学で研究生活を送ること10年と少し。 小説家としての活動履歴あり。 専門は生物学ですが、量子力学・社会学・医学・薬学なども担当します。 日々の記事作成は可能な限り、一次資料たる論文を元にするよう心がけています。 夢は最新科学をまとめて小学生用に本にすること。
編集者
ナゾロジー 編集部