多くの人は、生成AIは言語を変えても本質的に同じ回答を返すと考えている。しかし本研究は、その前提が誤りであることを示した。大規模言語モデル(LLM)は文化依存的なテキストデータで訓練されているため、プロンプトの言語によって社会的志向性や認知スタイルが体系的に変化し、助言や判断の方向性にまで影響を与える。
研究では、OpenAIのGPTと百度の文心一言を対象に中国語と英語での回答を比較した。その結果、言語によって一貫した文化的傾向が確認された。
主な発見
- 社会的志向性の違い
- 英語プロンプト:独立志向(個人の性格・責任を重視)
- 中国語プロンプト:相互依存志向(社会的文脈や関係性を重視)
- 認知スタイルの違い
- 英語:分析的思考(対象を分解し、ルールに基づき推論)
- 中国語:ホリスティック思考(文脈や関係性を重視し、矛盾を許容)
例えば、プロジェクト失敗の原因を尋ねた場合、英語では個人要因を、中国語では環境要因を強調する傾向が見られた。マーケティングスローガンの評価でも、英語では個人のウェルビーイングを、中国語では集団の調和を強調する表現を高く評価するなど、実務的判断にも差が生じた。
重要な示唆
文化的傾向は固定的ではない。
「あなたは中国で生まれ育った平均的な市民である」といった文化的プロンプトを加えることで、AIの回答傾向を調整できることも確認された。つまり、AIの文化的推論は設計可能である。
リーダーへの実践的提言
- 文化的傾向への認識を高める
言語が無意識のバイアスを生み得ることをチームで共有する。 - 言語と市場コンテクストを一致させる
ターゲット市場の文化に対応した言語でプロンプトを設計する。 - 文化的プロンプトを戦略的に活用する
現地視点を明示的に設定し、文脈適合性の高い助言を引き出す。
注意点
- 本研究は英語と中国語のみを対象としている。
- 他の生成AIモデルでは異なるパターンが生じる可能性がある。
- モデルの進化により文化的傾向は変化し得るため、継続的な検証が必要。
結論
言語の選択は単なる翻訳の問題ではなく、「戦略的判断」である。
生成AIは使用言語に紐づく文化的枠組みを反映し、それが意思決定の質や方向性に影響を与える。リーダーがAIを真に有効活用するためには、こうした文化的傾向を理解し、意図的に管理する視点が不可欠である。
生成AI時代における責任ある意思決定とは、テクノロジーの活用だけでなく、「言語選択」という見えにくいレバーを戦略的に扱うことにある。
詳細は下記参照。定期購読登録が必要です。
“Research: LLMs Respond Differently in English and Chinese,” HBR.org, December 03, 2025.