- 週間ランキング
私たちが普段使っている言葉には、実はひとつの形でありながら、場面や状況に応じて少しずつ違う意味を持つものがあります。
たとえば、英語の「run」は「走る」だけでなく、「機械を動かす」「会社を経営する」といった意味でも使われます。
日本語の「走る」も同じように、「人が走る」以外に、「エンジンが走る」「会社を走らせる」など、さまざまな文脈で使われます。
このように、よく使われる言葉ほど意味が増えていくという現象は昔から知られており、「意味‐頻度の法則」と呼ばれています。
この法則は、「頻繁に使われる単語ほど、持っている意味が多い」という関係を示しているのです。
この関係をグラフで説明すると、横軸に単語の使用頻度(どのくらいよく使われるか)、縦軸に意味の数をとり、両方を対数(数字の変化をわかりやすくする特別な目盛り)で表すと、データがほぼ一直線に並ぶとされています。
つまり、頻度が高くなるほど意味がどんどん増えていくということが、数字の上でも確認できるのです。
ただし、実際の研究ではこの関係が必ずしもきれいな直線になるとは限りません。
特に、あまり使われない単語では、データが直線から外れることがよくあります。
また、これまでの研究では主に辞書を使って「意味の数」を数えていましたが、辞書によって語義の数が違ったり、新しい使い方が載っていなかったりするため、正確な計測が難しいという問題もありました。
このような背景から、今回の研究チームはまったく新しい方法を考案しました。
それが、AI(人工知能)の「言語モデル」を使うという手法です。
言語モデルとは、たくさんの文章を読み込み、その流れから「次にどんな単語が来るか」を予測する仕組みです。
このAIに文章を入力すると、各単語は「単語ベクトル(単語の使い方を数値で表したもの)」と呼ばれる数字の集まりに変換されます。
このベクトルは、意味が近い単語ほど似た位置に、意味が違う単語ほど離れた位置に配置される特徴があります。
研究チームは、この単語ベクトルがどれだけ広い範囲に分布しているかを見ることで、その単語がどのくらい多様な意味を持っているのかを評価しました。
たとえば、同じ単語でも「文脈(言葉の使われ方)」が豊富であれば、ベクトルは球体の表面のように広い範囲に散らばります。
この広がりこそが「意味の豊かさ」を表しているというわけです。
この方法なら、辞書に載っていない新しい使われ方や、昔の文献、外国語学習者が書いた少し変わった文章でも、同じ基準で意味の広がりを調べることができます。
そこで研究チームは、この新しいAIの手法を使って、「意味‐頻度の法則」が本当にさまざまな言語で広く当てはまるのかを調べることを目的に研究を進めたのです。
研究チームは、この「よく使われる単語ほど意味が豊かになる」という法則が、本当に色々な言語に共通しているのかを調べることにしました。
そこで、世界中のさまざまな言語の文章を大量に集めて、それらを「コーパス」と呼ばれる大きなデータセットにしました。
具体的に言うと、今回の研究では英語や日本語、さらに聖書文章の24言語(27コーパス)をまとめた特別なデータを使いました。
(※英語2・日本語2の一般コーパスに、聖書翻訳の27サブコーパス(24言語)を加えた計31コーパスを分析。)
研究チームは、これらのデータから各単語がどれくらい頻繁に登場するか(出現頻度)をまず数えました。そして同時に、AI(人工知能)を使って、それぞれの単語がどれだけ多様な文脈で使われているか(意味の豊かさ)を測定しました。
ここで使われたAIの技術では、文章を読み込むことで単語が登場した場面ごとに「単語ベクトル(単語の意味を数値化したもの)」が作られます。
ベクトルの広がりが大きいほど、その単語はさまざまな意味で使われていると判断されます。
その結果、英語や日本語を含む多くの言語で、「頻繁に使われる単語ほど文脈が広がり、意味が豊かになる」という関係が確認されました。
グラフにすると、出現頻度と意味の豊かさの間に、なめらかな直線のような関係が見えてきます。
ただし、この傾向はすべての言語で同じように現れるわけではなく、言語によって直線の見え方にばらつきがありました。
特に、あまり使われない単語では関係が崩れやすく、グラフから外れてしまうこともありました。
それでも多くの言語で、この法則がおおむね成り立っていることが統計的に確認されました。
さらにこのAIの手法は、従来のように辞書に頼る方法とは異なり、時代や使われる場面を問わず、どんな言語データにも応用できるのが強みです。
研究チームは実際に、約100年前の文章や外国語を学ぶ人が書いた文にもこの方法を適用しました。
古い文では、頻繁に使われる単語ほど意味の広がりが見られましたが、使用頻度が低い単語では、ややずれが目立つ傾向がありました。
外国語学習者の文でも同じようなズレた結果が得られました。
それでもそれ以外の幅広い文章において、「頻繁に使われる単語ほど文脈が広がり、意味が豊かになる」という確認された意味は大きいでしょう。
次に研究チームは、「この法則の見え方がAIの性能によって変わるのか」という新たな疑問に挑戦しました。
ここで言うAIの性能とは、AIがどれくらい細かく言葉の意味を区別できるかということで、AIの「パラメータ数(処理の細かさを決める数字の数)」によって決まります。
パラメータ数が多いほど、AIはより賢くなります。
実験では、小型のAI(約2900万パラメータのbert-small)と、大型のAI(約3億4000万パラメータのbert-large)を使って比較しました。
その結果、小型AIでは「よく使う単語ほど意味が豊かになる」という関係がほとんど見られませんでした。
これは、小さいAIが単語の意味の違いを細かく認識するのが難しいためです。
一方、大きなAIでは、意味の豊かさと出現頻度の関係がはっきりと現れ、法則がより明確に観察されました。
また、AIの「種類」によっても結果が変わることがわかりました。
たとえば、BERT(バート)というAIは、単語の前後にある文章全体を参考にして意味を判断するマスク型モデルです。
一方、GPT-2(ジーピーティー・ツー)は、過去に書かれた単語の流れだけを見て、次に来る単語を予測する自己回帰型モデルというタイプのAIです。GPT-2は文章の「後ろ」にある文脈は使えません。
このGPT-2を使った場合、法則が明確に現れるためには、非常に大きなモデル(GPT-2 XL、約15億パラメータ)が必要でした。
これは、BERTのように前後の文脈を使えるAIに比べて、GPT-2のように過去の文脈しか使えないAIは、同じ法則を見つけるのにより大きな処理能力が必要だということを意味します。
このように、研究チームの一連の実験から、AIが単語の意味を正しく見分けられるかどうかを調べるための「新しい評価のものさし」として、「意味‐頻度の法則」が使える可能性が示されました。
今後、AIの語彙力(ごいりょく)をチェックする新しい方法として、活用されるかもしれません。
今回の研究でわかった最も大切なことは、「よく使われる言葉ほど、多くの意味を持つようになる」という法則が、多くの言語で成り立つ可能性が高いということです。
これは、私たちが毎日何気なく使っている言葉の背後に、世界中の言語に共通する深い仕組みが隠れていることを示しています。
では、なぜよく使う言葉ほど意味が増えるのでしょうか?
これを理解するためには既存の研究結果が役立ちます。
例えば日本語の「かける」という言葉は、電話を「かける」、メガネを「かける」、醤油を「かける」など、たくさんの場面で使われますよね。
こうしてひとつの単語が様々な場面で使われると、その単語は自然にいろいろな意味を持つようになります。
つまり、よく使われる単語ほど、たくさんの場面で便利に使えるように進化してきた可能性があります。
日本語の「耳」などもそうです。
本来の身体部位としての「耳たぶ」、そして「耳が遠い」のように「聴力・聞こえる能力」という意味、さらには「端の部分」という慣用的な使い方も存在します。
これらはすべて、「耳」が持つ「端」「縁」「聴く」のイメージから比喩や換喩によって派生した意味です。
日本人が食パンを目にしたとき、その端の部分を自然に「パンのミミ」と呼ぶようになったのも、耳の持つ端というイメージが拡大され使いまわされた結果と考えられます。
そういう意味では「耳」の多義性は、まるで中心(プロトタイプ)から放射状に広がる意味のネットワークのように構成されており、便利で省エネな言語使用の結果として成立しています。
逆に、あまり使われない言葉は限られた場面でしか使われないため、意味が少ないままになるのです。
言い換えると、言葉は少ない数でも色々な意味を伝えられるように、効率的に進化してきたと言えるかもしれません。
また今回の研究結果は、AIという新しい技術にも大きな影響を与える可能性があります。
現在、AIは私たちと自然な会話ができるようになっています。
例えば、ChatGPTのような生成AIは、人間が使う言葉の意味をきちんと理解して、自然な返答をしなければいけません。
そのためには、ひとつの単語が持つ多くの意味(多義性)を正しく理解する必要があります。
そこで今回の研究チームは、AIが本当に「単語の多義性を理解できているか」をチェックする簡単な方法として、この法則を使える可能性を示しました。
具体的には、AIが単語の意味を分析したときに、頻繁に使われる単語ほど意味の幅が広がるという関係がグラフではっきり見えれば、AIが単語の意味を比較的正しく認識できている目安になります。
反対に、この関係がグラフではっきり見えなければ、そのAIは単語の意味をまだ十分理解できていない可能性があります。
また、AIが単語の意味をどれくらい人間に近い形で理解しているのかを調べることで、AIが苦手な表現や間違えやすいニュアンスを明らかにすることもできるかもしれません。
言葉の普遍的な性質が分かれば、AIの発展にも、私たち自身の言語学習にも役立つ可能性が広がるでしょう。
元論文
A New Formulation of Zipf’s Meaning-Frequency Law through Contextual Diversity
https://doi.org/10.18653/v1/2025.acl-long.744
ライター
ナゾロジー 編集部
編集者
ナゾロジー 編集部