HBR Article:意思決定「AIに相談すると人は楽観的になり、予測精度を下げる」

 本論文は、生成AI(ChatGPT)を意思決定の支援ツールとして活用することが、経営幹部やマネジャーの判断にどのような影響を及ぼすかを実験により検証したものである。

AIは有用だが万能ではない。AIと人間の思考を組み合わせることでそれぞれの偏りを補い合い、より質の高い意思決定が可能になる。リーダーは助言の出所を意識し、偏りに自覚的であることが求められる。

実験の概要

300人超の経営幹部・マネジャーを対象に、NVIDIA株の1カ月後の価格予測を行ってもらい、半数には同僚との議論機会、もう半数にはChatGPTへの相談機会を提供、その後予測を修正させた。

主な結果

  • ChatGPTに相談したグループ
     ・予測が平均5.11ドル上方修正されるほど楽観的に
     ・過信傾向が強まり、ピンポイント予測(小数点付き)が増加
     ・予測の精度は低下
  • 同僚と議論したグループ
     ・平均2.20ドルの下方修正
     ・慎重さが増し、過信が減少
     ・予測の精度は向上

なぜAIが過信と楽観を招いたのか(主な5要因)

  1. 外挿バイアス:AIが過去の上昇トレンドを将来にも延長
  2. 権威バイアス:AIの説得力ある言語が判断を左右
  3. 感情の欠如:AIには「慎重になる直感」がない
  4. 社会的力学の不在:同僚との会話では極端な予測を互いに抑制
  5. 知識の幻想:AIの情報量に触れることで、自分が理解しているという錯覚

提言:経営判断におけるAI活用の注意点

  1. AIのバイアスを理解する:過信や知識の幻想に陥らないよう注意
  2. 人間同士の対話を重視する:AIと人間の補完的な活用が有効
  3. 批判的思考を忘れない:AIの出力を鵜呑みにせず問い直す姿勢が重要
  4. AI活用のルール作りと教育:組織として健全な運用指針と研修が必要

詳細は下記参照。定期購読登録が必要です。

関連記事

カテゴリー
アーカイブ