HBR Article:人材採用・育成「AI採用が引き起こす静かで深刻な問題」

 本稿は、AI採用の是非を「人間 vs 機械」の公平性比較で論じること自体が的外れであると指摘する。AIの導入は、採用における公平性の意味そのものを再定義し、特定の解釈を固定化してしまうからである。
3年間のフィールド調査(グローバル消費財企業)を通じて、著者らは、AI採用ツールが人事部門の重視する「一貫性・標準化としての公平性」を強化する一方で、現場マネジャーが重んじてきた「文脈に基づく公平性」を排除していく過程を明らかにした。

調査対象企業では、公平性向上を目的に、履歴書に代えてAIによる匿名化ゲーミフィケーション評価を導入した。アルゴリズムは過去の社員データから「成功に近い候補者」を予測し、一定のスコアを下回る候補者を自動的に排除する仕組みだった。これにより手続きの一貫性は高まったが、地域特性や役割ごとの事情、マネジャーの経験知といった定量化しにくい判断軸は次第に周縁化された。

その結果、公平性は「例外なき同一ルール」と同一視されるようになり、マネジャーの裁量は「主観的で不公平」とみなされ、候補者の多様性や、型にはまらない有望人材が静かに排除されていった

重要なのは、この変化が劇的な失敗としてではなく、時間をかけた「公平性の漂流」として起きた点である。自動化された判断によって、何が失われているのかを組織自身が把握できなくなっていた。

著者らは、リーダーが問うべき核心的な問いとして、次の3点を提示する。

  1. 組織内にはどのような複数の「公平性」が存在しているのか
  2. 誰が、どのような根拠で、AIに「公平」を定義する権限を与えているのか
  3. AIはどの公平性を強化し、どの視点を時間とともに失わせているのか

公平性はコードに自動的に埋め込まれるものではなく、人間によって設計・正当化・維持される概念である。したがって、リーダーの責任は「公平なAIを導入すること」ではなく、公平性を継続的に議論・検証できる仕組みを組織内に保ち続けることにある。

結論として本稿は、AI採用の成否を分けるのはモデル性能ではなく、

  • 誰を議論に招くか
  • どの前提を問い続けるか
  • 現場の知をプロセスに残し続けられるか

にあると強調している。これは採用に限らず、あらゆるAI活用に共通するリーダーシップの課題であろう。

詳細は下記参照。定期購読登録が必要です。

関連記事

カテゴリー
アーカイブ