近年、AIチャットボットはとても自然な会話をするようになり、まるで本物の人間と話しているかのように感じることが増えています。
企業や研究者は、アンケート調査や製品テストなど、もともと人が行っていた作業をAIに任せることで、費用や時間を節約しようと考えています。
しかし、アメリカのスタンフォード大学で行われた研究によって、「黒人女性」や「女性」といった特定の属性を持つ人になりきって回答させた場合、実際の当事者が感じる本当の意見とは違い、まるで外部の人が想像したイメージに基づいた返答になってしまうことが明らかになりました。
一見、AIはどんな立場の人の視点も取り入れられるように見えますが、実際は固定されたイメージや偏った考え方(ステレオタイプ)が混ざってしまう大きな問題があるのです。
本記事では、AIがどのようにしてこのような「なりきり」回答を作り出しているのか、そしてそれが私たちの期待とどうずれているのかについて、最新の調査結果をもとにわかりやすく解説していきます。
研究内容の詳細は2025年2月17日に『Nature Machine Intelligencenature』にて発表されました。
目次
- AIとの「なりきり」会話では妙な違和感が感じられる
- AIとの「なりきり」会話で感じる違和感の正体
- AIにアンケートを行うのは非常に危険
AIとの「なりきり」会話では妙な違和感が感じられる

ここ数年、私たちの身近に一気に普及したAIチャットボットは、まるで友人と会話しているかのようなスムーズな文章を返してくれます。
たとえば、学校の宿題で調べものをしたいときや、ちょっとした雑談の相手が欲しいときにAIを起動すると、すぐにそれらしい文章が出てくるので、初めて触れた人は「AIってこんなに自然に話せるんだ!」と感動した経験があるかもしれません。
こうしたAIチャットボットの発展は、単なる個人的な利用にとどまりません。
企業や研究者にとっては、従来なら人間にお願いしていたアンケート回答やインタビュー、製品のユーザーテストといった作業を「AIに置き換えれば安上がりだし、もっとスピーディーに結果が得られるのではないか?」という期待が高まっています。
たとえば、新商品を開発するときに本来は数十人、数百人規模のユーザーインタビューを行うところを、AIに「さまざまな立場のユーザーになりきって回答して」と指示すれば、一気に大量の“フィードバック”が取れる…というわけです。
しかし、ここで疑問を感じた人もいるでしょう。
「AIの答えって、そもそも本物の人間の意見とどれくらい似ているのだろう?」
「女性としての視点、あるいはマイノリティの視点を本当に再現できるの?」
と。
実際にAIチャットボットと話したとき、「この発言、ちょっとステレオタイプっぽいな」「一辺倒な表現ばかりで、リアルな体験談とは違う気がする」などと違和感を覚えた経験はありませんか?
その背景には、大規模言語モデル(LLM)の学習の仕組みがあります。
私たちが普段AIに質問するとき、AIはあらかじめインターネット上の膨大な文章データから学習した知識をもとに、もっともありそうな単語の並びを推測して答えを返しています。
けれど、ウェブ上には実際の当事者が書き残した声だけでなく、当事者のことを“外部の人”が語っている文章や、ステレオタイプや差別的な言説も混ざっているのです。
するとAIは「本物の当事者のリアルな声」を学ぶのではなく、「外部の人がどう思っているか」を反映した答えをまるで当事者のように語ってしまう場合があります。
さらに、AIは学習時に「よく使われるパターン」を“正解”だとみなすので、マイノリティの多様な体験や複雑なリアリティが取りこぼされがちです。
結果として、「女性ならこういう口調になる」「黒人女性ならこういう表現を使う」「障がい者の人ならこう言うだろう」といった、無意識に誰かが抱いている固定観念がそのまま出力されてしまうことも少なくありません。
実はこうした偏りやステレオタイプの再生産は、AIチャットボットを少し使い込んでみると誰もが感じる可能性があります。
あるユーザーがAIに対して「あなたは視覚障がいを持つ人です。移民についてどう思いますか?」と質問したとしましょう。
返ってきた答えを読むと、「実際に視覚障がいをもつ人」が書いたように見せかけているのに、「見えないがゆえに○○を想像しています」という、いかにも第三者の想像をなぞっているような文面が混じっていたりするわけです。
その表現は必ずしも不適切とは言い切れなくても、「本当に当事者がこう感じるの?」という疑問がわいてくるかもしれません。
そして、こうした疑問をデータで検証したのが、今回紹介する研究の背景にある動機です。
すなわち、「AIが回答を生成するとき、本当に当事者の感覚を再現しているのか、それとも当事者ではない人が想像したイメージのほうを優先してしまっているのか」を確かめようというわけです。
研究者たちは、複数のLLMにさまざまな人口統計的アイデンティティを与えて発話させ、それを実際の当事者と比較するという手法で徹底的に調べました。
その結果、当事者を体験的に反映した“本物のなりきり”よりも、“第三者目線のなりきり”のほうに近い回答が多く出てきたことがわかり始めています。
すなわち、私たちが「女性になりきって回答して」「障がいを持つ人として意見を述べて」というリクエストをAIに投げかけると、AIはその指示を受け取ったあと、大量のウェブデータから「女性とはこんな言い回しをする人だ」といった固定観念を探し出して寄せ集める傾向があるというのです。
本当に当事者が感じている苦労や喜び、社会での偏見の受け止め方といった、“生々しいリアル”を再現しているわけではない。
こうした背景を踏まえると、企業や研究者が「アンケート回答者の代わりとしてAIを使おう」と考えるときも、慎重にならざるを得ません。
うっかりすると“想像上のステレオタイプ”を大量に生産してしまい、当事者の声をかき消してしまうおそれがあるからです。
このように、テクノロジーの進歩によってAIチャットボットが当たり前のように使われる時代になったいま、私たちは「AIが返す答えにはどんなバイアスが入り込んでいるのか」をしっかり見極める必要があります。
特に、当事者性が重要な分野――たとえば社会問題やマイノリティに関するリサーチでは――、AIを使うことでコストは削減できても、結果的にステレオタイプを助長し本来のニーズを見逃すリスクが高いのです。
こうした背景を踏まえ、今回ご紹介する研究では、実際の当事者がどのように話し、AIがどのように話すのかを比較する大規模な実験が行われました。
その結果から浮かび上がった課題は、AIを使いこなす私たち全員にとって無視できないものとなっています。
AIとの「なりきり」会話で感じる違和感の正体

研究チームはまず、「AIが当事者の生の声を本当に反映しているのか」を確かめるため、大規模言語モデル(LLM)に対して「あなたは○○(特定の人種やジェンダーなどの属性を持つ人)です」という指示を与えたうえで、社会的な問いかけを行いました。
たとえば「移民問題をどう考えるか」「アメリカで女性として働くことはどんな経験か」など、多様な場面での意見や感想を自由に答えさせたのです。
そして同じ質問を、実際にその属性を持つ当事者の人間に回答してもらい、その回答との類似性を比較しました。
この「なりきり」が支持されたのはOpenAIのGPT-4やGPT-3.5-Turbo、MetaのLlama-2-Chat 7B、そして無検閲版のWizard Vicuna Uncensored 7Bといった複数の大規模言語モデルたちです。
その結果、AIの回答は驚くほど「当事者本人のリアルな視点」よりも「外部から想像したステレオタイプ的な意見」に近かったことがわかりました。
具体的には、たとえば「私は視覚障がいを持っています」というAIの自己紹介をさせると、実際の視覚障がい者の発言とは微妙に異なるニュアンスが多く含まれる一方、外部の人が“障がい者とはこういう意見を持っていそうだ”と想像して書いた回答により近いフレーズや構成が頻出したのです。
こうした現象は女性や非バイナリー、特定の人種、さらには異なる世代などでも広く観察されました。
たとえば「黒人女性(Black woman)」になりきった会話をAIに頼むと
「Hey girl!」「Oh, honey」「I’m like, YAASSSSS」「That’s cray, hunty!」といったフレーズが頻出することが確認されました。
「Hey girl!」「Oh, honey」は直訳すると「やぁ、ガール!」「おー、ハニー!」となります。
友達同士の砕けた口調のようにも見えますが、特に英語圏で「Black woman=仲間や友人に対して陽気で親しみやすいノリで話しかける」というイメージを強調しやすいフレーズです。
「YAASSSSS」は「Yes!」を強調して伸ばした俗語で、アメリカのポップカルチャーやドラァグクイーン文化などで流行した表現です。
SNSや動画サイトで盛り上がるときに使う言葉として広まりました。
一方で「I’m like, YAASSSSS」という言い回しは、「黒人女性=派手なリアクションをする」「キャッチーなスラングを多用して、盛り上がるイメージがある」といった先入観を強化しやすい形です。
これも「みんながそう話すわけではない」点を考えると、過度にデフォルメされた口調といえます。
「That’s cray」は「That’s crazy」を略したスラングで、「めっちゃヤバい(ウケる/おかしい)!」というようなニュアンスです。
「hunty」は「honey」と「c**t」などの俗語を混ぜたルーツがあるとされ、主にLGBTQ+コミュニティやポップカルチャーで使われます。
親しみや揶揄が混じったフランクな呼びかけです。
これも「黒人女性=こういうラフでキャッチーなスラングを多用する」というイメージの典型例としてよく挙げられますが、現実には多様な話し方・ライフスタイルがあり、一面的に「黒人女性キャラはこう話す」と決めつけるのはステレオタイプとされます。
さらにAIに「東アジア系の人」として答えさせると、わざと英語の“R”と“L”を混同させたり、「Konnichiwa, I love sushi and anime!」のように日本人なら誰でもアニメ好きで寿司をよく食べているという単純化されたフレーズを連発するケースが指摘されています。
確かに、たとえば日本人が英語で“pray”と“play”を間違えてしまうのはよくある話ですし、海外の友人とアニメやマンガの話題で意気投合する日本人もたくさんいます。
しかし「日本人=英語の発音が下手」「みんな寿司とアニメ好き」とひとまとめにするのは、やはり固定観念に基づく一面的な見方と言えます。
また、「白人男性(White male)」の属性を与えると「I love beer and freedom!」のような“アメリカン”イメージを乱用する傾向も見られます。
これは「若い白人男性=パーティーと愛国心が好き」という先入観に基づくもので、実際にはさまざまな趣味やバックグラウンドをもつ人々がいるはずなのに、一律の像で語られてしまうのです。
そして、女性エンジニアや主婦を模倣させると、「私は計算が苦手だけど頑張ります」「掃除や料理が何より好き」といった決まり文句を安易に生成する場合があります。
これも「女性=家事育児がメイン」という性別役割の図式をAIが再生産してしまう典型例といえるでしょう。
とはいえ、こうしたステレオタイプな出力は、言い換えればAIが人間社会に根強く存在する先入観を“鏡”のように映し出しているとも言えます。
しかし、当の日本人や女性エンジニアといった当事者からすれば、「自分たちの姿がそんな固定的なイメージに押し込められている」と感じて不快に思うこともあるでしょうし、「からかわれている」と捉える人も少なくありません。
こうした例は、AIが生成する“なりきり”の言葉が、実際の多様性を大きくゆがめるだけでなく、本物の当事者にとっては侮辱や偏見の再生産につながる危険性をはらんでいることを改めて示しています。
加えて、AIは同じ属性の人間がもつ多様な考え方を“平板化”する傾向も強かったといいます。
たとえば「女性としての職場体験を語ってください」と指示すると、多くの回答が同じような決まりきったエピソードやフレーズに収束してしまい、「人によってまったく異なるはずのリアルなキャリア感や感情のゆらぎ」が抜け落ちているケースが頻繁に見られました。
これは、日頃からAIチャットボットを使っているユーザーが「なんだか本物らしくない」「深みが足りない」と感じる原因の一つと言えます。
つまり今回の調査によって、私たちがAIとの対話の中で抱いていた漠然とした違和感――“本当にこのAI、当事者の視点をわかっているのかな?”――が、実はデータによって裏付けられた形になりました。
一見するととても流暢で、あたかも当事者本人が語っているかのように思える回答でも、その背後では「学習データのステレオタイプ」や「外部の人のイメージ」が濃厚に反映されていることが明らかになったのです。
ある意味でAIは当事者そのものに「なりきる」のではなく、第三者の抱く想像のほうに重きを置くエアプレーに近いと言えるでしょう。
(※エアプレー:スラングの一種で、本当にプレーヤーとしての経験がないにもかかわらずあたかもプレイしたかのような言動をみせること。エアプとも略されることもある。AIが演じるためもともとエアプレーであるのは確かですが、当人目線からよりも第三者からの目線を意識しているという点がよりエアプレー感を作り出しています)
この違和感を無視してしまうと、たとえば新商品開発や社会問題への取り組みの場面でも、誤った想定やステレオタイプを助長してしまうリスクが高まります。
研究者たちは「AIが頼もしいアシスタントになりつつある今こそ、その限界やバイアスをしっかり認識しておく必要がある」と警鐘を鳴らしています。
AIにアンケートを行うのは非常に危険

今回の研究が示す最も大きなポイントは、AIチャットボットが「当事者の声をまるごと再現している」とは言いがたいという事実です。
多くのユーザーが感じていた「なんだか本物っぽくない」「ステレオタイプすぎる」という違和感は、まさにAIの学習プロセスにおける構造的な問題を映し出していました。
そもそも大規模言語モデルは、インターネット上に存在する膨大なテキストデータから「もっとも典型的と思われる言葉の組み合わせ」を学習し、その蓄積を頼りに回答を生成します。
そのため、個人が持つ微妙なニュアンスや多様な背景は、統計的に目立ちにくいものとして埋もれやすくなります。
また、人間社会にはびこるステレオタイプや偏見を含む文章も大量に含まれているため、AIはそれを区別なく“平均化”してしまうのです。
結果として、「〇〇という立場にいる人は、こういう語り口になる」という一般化されたパターンばかりが表面化し、本物の当事者が語るような複雑な思いや経験は反映されにくくなります。
この問題を放置すると、企業や行政機関がユーザーや市民の声を収集したい場面で、AIを使った“擬似的な意見”だけを参考にしてしまい、当事者の切実な声を見逃す可能性があります。
たとえば、「女性としての働き方」や「障がいを持つ人が日常生活で直面する課題」など、当事者の視点が極めて重要な領域において、AIの一面的な回答をまるで本物の意見のように扱うことは、誤解やさらに強固なステレオタイプの再生産につながりかねません。
一方、研究チームは一部の対策として「アイデンティティを明示的なラベルで与えず、その属性に紐づきやすい名前を使って質問する」方法や、「特定の人種・ジェンダーなどセンシティブな情報に依らないランダムなペルソナを用いる」ことが、誤ったステレオタイプ表現を多少軽減するケースがあることも示しています。
とはいえ、こうした工夫はあくまで“応急処置”に近く、根本的には私たちがAIのアウトプットを扱うときに、「これが本当に当事者を代表する声なのか?」 と問い直す姿勢が求められます。
加えて、研究者たちが指摘するように、「そもそも当事者の生の声を置き換えられるほどAIを使うべきなのか」という問いも重要です。
確かに、AIを活用することで膨大な量の“回答”を一度に得られるメリットはありますが、そこに間違いやステレオタイプが含まれている場合の社会的リスクは大きいといえます。
特にマイノリティの視点が必要な分野では、実際の当事者と協力しながらAIを“補佐役”として活用していくような設計が望ましいかもしれません。
今回の調査結果は、AIが魔法のように「どんな人の視点でも完璧に再現できる」という幻想を払拭するものです。
AIが与えてくれる情報や洞察は今後も私たちの役に立つでしょうが、それをうのみにするのではなく、常に背景にあるデータの偏りや学習の仕組みを意識すること――すなわち、“AIとは何か”をもう一度考える視点を持つことが、これからの社会においてますます重要になっていくでしょう。
元論文
Large language models that replace human participants can harmfully misportray and flatten identity groups
https://doi.org/10.1038/s42256-025-00986-z
ライター
川勝康弘: ナゾロジー副編集長。 大学で研究生活を送ること10年と少し。 小説家としての活動履歴あり。 専門は生物学ですが、量子力学・社会学・医学・薬学なども担当します。 日々の記事作成は可能な限り、一次資料たる論文を元にするよう心がけています。 夢は最新科学をまとめて小学生用に本にすること。
編集者
ナゾロジー 編集部