HBR Article:テクノロジー「2025年の生成AI利用実態をデータから読み解く」
本稿は、2025年に発表された生成AIの利用実態に関する3つの主要調査――OpenAI の使用状況レポートAnthropic の経済指標レポート筆者によるソーシャルリスニング調査を比較・統合し、人間が生成AIをどのように使い、そこから経営者が
皆様にお知らせがあります
本稿は、2025年に発表された生成AIの利用実態に関する3つの主要調査――OpenAI の使用状況レポートAnthropic の経済指標レポート筆者によるソーシャルリスニング調査を比較・統合し、人間が生成AIをどのように使い、そこから経営者が
多くの人は、生成AIは言語を変えても本質的に同じ回答を返すと考えている。しかし本研究は、その前提が誤りであることを示した。大規模言語モデル(LLM)は文化依存的なテキストデータで訓練されているため、プロンプトの言語によって社会的志向性や認知スタイルが体系的に変化し、助言や判断の
1. 生成AIは「過熱」と「現実」の狭間にある生成AIは大きな期待を集めているが、企業・消費者ともに実利用はまだ限定的。多くの企業がPoC止まりで、明確な価値創出に苦戦。消費者利用も日常的習慣にはなっていない(SNSや検索ほどの頻度ではない)。
現代のリーダーは、政策の急変、AIの急速な浸透、地政学的分断という「3つの衝突する力」に同時にさらされ、かつてない不安と不確実性の中で意思決定を迫られている。戦略はもはや見通しの利くマラソンではなく、霧の中を足場が動く状態で全力疾走する行為に近い。制御されない不安は脳
本稿は、AI採用の是非を「人間 vs 機械」の公平性比較で論じること自体が的外れであると指摘する。AIの導入は、採用における公平性の意味そのものを再定義し、特定の解釈を固定化してしまうからである。3年間のフィールド調査(グローバル消費財企業)を通じて、著者らは、AI採用ツール
企業が経営的・環境的な制約に直面すると、心理的安全性への投資は「余裕があるときの取り組み」と見なされ、真っ先に削減されがちである。しかし本研究は、心理的安全性こそが危機下において従業員のバーンアウトや離職を防ぐ持続的な資源であることを示している。エドモンドソンらの研究
AIへの期待が高まる一方で、45%の企業幹部が「AI導入のROIは期待を下回っている」と感じている。調査の結果、失敗の主因は技術ではなく、人材・プロセス・政治(組織内の権力や利害)という相互に絡み合う組織的要因にあることが明らかになった。人材面では、①AIの役割が見え
本稿は、リーダーへの「信頼」がパフォーマンス、顧客ロイヤルティ、収益性、イノベーションの基盤であるにもかかわらず、多くの企業がそれを感覚的・主観的なものとして扱い、経営指標として管理できていない現状を問題提起する。信頼は測定可能で、他の戦略変数と同様に可視化・モニタリング・行
デジタル疲れは、燃え尽き症候群とは異なる現代特有の消耗であり、健全な組織や良質なリーダーシップの下でも発生する。原因はツールそのものではなく、注意の断片化、文脈不足による推測負荷、感情調整の手掛かりを欠いたデジタル交流にある。これらは脳の認知資源と感情エネルギーを過剰に消費し
政策変更や経済不安が続く不確実な時代において、リーダーへの信頼は従業員エンゲージメントと組織成果を大きく左右する重要要素である。しかし、2024年のガートナー調査では、シニアリーダーを信頼している従業員は48%にとどまり、多くの組織で信頼が十分に確立されていない実態が明らかに