- 週間ランキング
物語記憶の研究は古くから行われてきました。
英国のバートレット博士による古典的実験では、物語の記憶はその理解(解釈)と密接に結びついており、人によって想起内容に大きな差異が生じることが示されています。
その後の研究でも、物語の理解・想起には既有の知識構造(スキーマ)が影響を与えると考えられてきました。
つまり、意味のある物語の記憶は単純な暗記ではなく、読んだ人それぞれの知識と解釈によって再構成されるのです。
このように複雑な物語記憶を一般的な法則で説明することは難しく、少数の仮定で記憶現象を説明する単純モデルの構築は容易ではないとされてきました。
実際、ランダムな単語リストや数字列の記憶については、記憶できる項目数や忘却のパターンなど多くの定量的知見が蓄積しており、提示された項目数に対して平均何項目を想起できるかといった関係を予測するモデルも提案されています。
しかし物語のような意味を持つ情報では、人は物語を逐語的ではなく要点を要約して記憶するため、単純な語数では記憶の質を評価できません。
このような理由から、物語記憶に共通する定量的特徴を説明する理論はこれまで存在しなかったのです。
近年になって、この課題に挑むための大規模な実験データが集められ始めました。
ツォディクス氏らのチームは、様々な長さの物語を用いたオンライン実験を実施し、多人数の物語想起データを収集しました。
彼らの観察によると、人はランダムな単語リストとは異なり、物語を思い出すときには出来事を原作の順序通りになぞる傾向が強いことが分かりました。
さらに、物語が長くなるほど一つひとつの想起文に詰め込まれる内容が増え、全体の想起の長さ(文章数)の伸びは物語の長さそのものよりも緩やかになる(物語が長くなるにつれ相対的に要約が進む)ことも報告されています。
このような統計的規則性が見られるのは、記憶に階層的な要約メカニズムが働いている可能性を示唆していました。
研究チームはこれらの特徴を数理モデルで説明することを目指したのです。
研究チームは、私たちが物語を思い出して語るときにどんな癖があるのかを探るため、オンラインで大規模な実験を行いました。
クラウドワークスのようなサービスを通じて各物語につきおよそ100人の参加者を募集し、画面に表示された短編から長編までさまざまな物語を読んでもらったあと、その内容をできるだけ詳しく文章で書き起こしてもらいました。
集まった再話は表現も長さもバラバラでしたが、チームは GPT-4 と DeepSeek という二つの最新AIを使い、一文ごとに「原作のどこをまとめたものか」を自動で照合しました。たとえば「この一文は原作の六文分をぎゅっと縮めている」といった具合に、どれだけ情報が圧縮されているかを数値で割り出せたのです。
そのうえで彼らは、得られたパターンを説明する鍵として「ランダムツリーモデル」と呼ばれる数理モデルを提案しました。
「4×4ルール」とは何か?
「4×4ルール」とは、人が物語を記憶するとき、脳内にできる“フォルダー階層”がおよそ4段ぶん深く、各段で同時に扱える枝(トピック)がせいぜい4つ前後に収まるという経験則を指します。心理学で知られる「作業記憶は一度に4つ程度の情報しか保持できない」という限界を、そのままツリー状の物語モデルに埋め込んだイメージです。最上段のフォルダーが物語全体をつかさどり、その下に最大4つの大章がぶら下がり、さらに各章の下に4つの場面が連なる――という具合に整理されていると考えると、長い物語でも人は迷子にならず要点を順序よく思い出せます。一方、フォルダーを4階層より深くしたり、枝を5本以上増やしたりすると頭が一杯になってルートを見失いやすくなるため、脳は自動的に内容を「くくって圧縮」して整理します。こうして“深さ4・幅4”という枠内に収めることで、長いストーリーも少ないキーワードで再現できる――それが最新研究が示した脳の圧縮術、つまり「4×4ルール」の中身です。
ツォディクス氏らは、人が物語を理解して記憶するとき、脳内にその物語の階層的な「ツリー」(木)状の表現が形成されると仮定しました。
ツリーの最上位にある根は物語全体を表し、その直下のノード(枝の分岐点)は物語の主要な出来事や章に相当し、さらに下位の分岐点にはより細かなエピソードや詳細が含まれる――という具合に、物語が階層的に構造化されて記憶されるのです。
ちょうどパソコンでファイルをフォルダーとサブフォルダーに分けて整理するように、脳がストーリー情報を階層的なツリー構造で保存しているイメージです。
そしてツリー上の各分岐点には、その下位にぶら下がる詳細な情報(葉に相当)を要約した内容が記録されていると考えます。
例えば上位レベルの分岐点には複数の出来事をまとめた抽象的な要点が、下位レベルの分岐点には単一の具体的な出来事の記憶が格納されます。
このモデルでは記憶時に細部まで逐語的に保存するのではなく、階層ごとに情報を要約・圧縮しながら保持しているわけです。
では、思い出すときにはどうなるでしょうか。
モデルによれば、私たちが物語を再話するときには、記憶されたツリー構造を根元から順に、一度に辿れる範囲(作業記憶の制約があるため最大4階層程度まで)で内容を取り出していくと想定します。
作業記憶の容量(同時に心に留めておける項目数)によって、一度に辿れるツリーの深さには上限があるのです。
研究チームはこの作業記憶の制約をモデルに反映させるため、ツリーの形にいくつか分岐点を設けました。
ツリーの分岐の仕方はランダムとしつつも、一つの分岐点が持てる子分岐点数を最大4つまでに制限し、またツリーの深さも作業記憶容量の限界を考慮して最大4階層までに制限したのです。
これは、人間が同時に注意を向けられる情報の数がおおよそ4±1程度である(“マジカルナンバー4”とも呼ばれる)という心理学の知見に基づいて設定されたものです。
つまり「最大4つの枝が入れ子になった深さ」までしか詳細には立ち入れないメモリーツリーを想定したことになります。
このようなツリーモデルを用いて計算機内で多数の「仮想記憶ツリー」を生成し、その統計的性質を分析したところ、興味深い結果が得られました。
モデルから導かれた予測を人間の実験データと比較すると、平均的な傾向が驚くほどよく一致します。
つまり研究者たちが予測したように「人間の脳は物語を1度に4段階程までしか細分化できなかった」わけです。
例えば、人が思い出す内容の長さ(再話の文章数)は物語が長くなるほど増加しますが、その増え方は物語の長さに比例して直線的に伸びるわけではありません。
モデルによると、物語が長くなるにつれて再話の長さの伸びは次第に緩やかになり、非常に長大な物語では再話の長さはほぼ頭打ちになる(いくら長編でも人が覚えて話せる内容には限度がある)ことが示されました。
実験データでも実際に、物語の長さが2倍、3倍と長くなっても人々が書き出す要約はそれほどの長さにはならないという、サブリニア(非線形)的な関係が確認されています。
さらにモデルは「圧縮率」と呼ばれる量、すなわち一つの想起文が元の物語中の何文分の内容をまとめているかについての分布も再現しました。
物語が長くなるほど、一文で表現される内容の尺が大きくなる(多くの出来事をまとめてひとまとめにする)傾向があり、モデルによれば物語が十分長くなると「各想起文がカバーする物語全体に占める割合」の分布が物語の長さに依存しない普遍的な形に収束するといいます。
言い換えれば、非常に長い物語では、一つひとつの記憶断片(要約文)が全体の中で占めるスケールが一定になるというスケール不変なパターンが現れるという予測です。
実際、AIを用いた圧縮率の解析でも、参加者たちの想起データから得られた圧縮率の分布がモデルの理論計算とよく一致することが確認されました。
こうした結果は、階層的ツリーモデルが人間の物語記憶の特徴を捉えている有力な証拠と言えます。
また、このモデルは人々が物語を元の順序どおりに思い出す傾向を示す理由も自然に説明できます。
ツリー上位の幹や太い枝に当たるノード群が物語全体の粗筋となっているため、再話の際には上位の要約を順番に辿ることで、話の筋道を見失わずに済むのです。
これはランダムな単語リストを思い出す場合と異なり、物語記憶では構造が道筋を付ける役割を果たしていることを示唆します。
階層的なツリーモデルによって、人間の物語記憶のメカニズムに新たな光が当てられました。
本研究に直接関与していない専門家も、この成果に注目しています。
米ダートマス大学の神経科学者ジェレミー・マニング氏は物語を理解する上で階層構造が重要だという考え自体は以前からあったものの「より広範で“中心的”な記憶はツリーの下位の枝に位置し、そこから物語全体が構成されていることを示した点が新しい」と評価します。
そして「この種のモデルによって、物語中のあらゆる出来事が等しく重要で記憶に残るわけではないことが示された」と指摘しています。
確かにツリーモデルでは、物語の骨子となる出来事が上位の分岐点(浅い層)に集約され、細かな枝葉の事実は下位分岐点(深い層)に位置づけられるため、記憶の取捨選択が自然と行われる構造になっています。
また、米ジョンズ・ホプキンス大学の記憶研究者ジャニス・チェン氏は「この研究には非常にワクワクさせられました」と興奮気味に語りました。
チェン氏によれば、心理学者たちは 100 年以上にわたって物語記憶を研究してきたものの、大規模で主観的な再話データの分析には常に壁があったそうです。
今回、ツォディクスらが AI ツールを用いてその壁を乗り越えたことを高く評価し、「これは物語と記憶に関する強力な計算論的研究の新たな分野の始まりだと思う」と期待を寄せています。
今回の成果は、人間が物語を記憶し再現するメカニズムを定量的に説明する一つのモデルケースとなりました。
研究チームは今後、このツリーモデルを二人の会話の記憶など他の種類の叙述的記憶にも適用し、同様の階層構造が見られるか検証していく計画です。
物語記憶の仕組みを解明する試みは始まったばかりですが、物語の持つ力と人間の認知の巧みさを改めて感じさせる興味深い研究と言えるでしょう。
人類が古くから培ってきた「物語る」能力の裏側に、階層的なツリー構造による整理術が隠されていると考えると実に興味深いです。
今後のさらなる研究により、物語記憶の理解が一層深まることが期待されます。
元論文
Random Tree Model of Meaningful Memory
https://doi.org/10.1103/g1cz-wk1l
Large-scale study of human memory for meaningful narratives
https://doi.org/10.1101/lm.054043.124
ライター
川勝康弘: ナゾロジー副編集長。 大学で研究生活を送ること10年と少し。 小説家としての活動履歴あり。 専門は生物学ですが、量子力学・社会学・医学・薬学なども担当します。 日々の記事作成は可能な限り、一次資料たる論文を元にするよう心がけています。 夢は最新科学をまとめて小学生用に本にすること。
編集者
ナゾロジー 編集部