NewsHub.JP

NewsHub.JP

Workday訴訟で問う採用AI差別責任と米規制強化の現在地

by 田中 健司
URLをコピーしました

はじめに

採用現場でAIが使われること自体は、すでに珍しくありません。大量応募の振り分けや候補者の優先順位づけが進む一方、「差別が起きたとき誰が責任を負うのか」という重い問いが前面に出ています。

象徴的なのが、米HRソフト大手Workdayを相手取ったMobley訴訟です。原告側は、同社の推薦やスクリーニング機能が40歳以上の応募者に不利な影響を与えたと主張し、裁判所は2024年以降、この主張の一部を審理に進めてきました。本記事では、この訴訟の核心、AIベンダー責任の新しい線引き、そして米国で広がる監査・説明責任の流れを整理します。

裁判が突きつけた責任主体の再定義

ベンダーも訴えられる構図への転換

この訴訟が注目される最大の理由は、採用した企業ではなく、採用基盤を提供するソフトウエア会社そのものが被告になっている点です。2024年4月にEEOCは法廷助言書を提出し、Workdayのアルゴリズム的な選別機能は、従来の職業紹介事業者が担ってきたスクリーニングや紹介の役割を、より高度な手段で実行していると主張しました。ここでは「AIだから別物」ではなく、「実質的に何をしているか」で責任を見ようとしています。

その考え方を一定程度後押ししたのが、2024年7月の連邦地裁判断です。報道によると裁判所は、Workdayが連邦差別禁止法上の「employment agency」にそのまま当たるとの主張は退けた一方で、差別的影響をめぐる中核部分の請求は前進を認めました。ベンダー側の法的整理にはなお争いが残るものの、「採用を補助する外部AIだから責任を免れやすい」という見方は崩れ始めています。

この点は実務上かなり重い意味を持ちます。企業が「最終決定は人がしている」と説明しても、その前段の推薦や足切りが機会格差を生んでいれば、被害はその時点で発生し得るからです。EEOCも、履歴書スクリーニングや動画面接評価が既存の差別禁止法の射程に入ると案内しています。AIは新技術でも、法の視点では「採用判断に実質的に影響したか」が問われます。

最新局面で浮上した年齢差別の争点

訴訟はその後、年齢差別の争点を軸にさらに広がりました。2025年5月16日、カリフォルニア北部地区連邦地裁は、40歳以上の応募者に関する全国的な集団訴訟の暫定的な認定を認めています。Akinの整理では、裁判所はWorkdayのAI推薦システムが応募者をスコア化し、並べ替え、ランク付けし、選別しているという「統一的な方針」が主張段階で示されたとみました。HR Diveによれば、裁判所は対象が大規模になり得るというWorkday側の反論も、通知を拒む理由にはならないと退けています。

さらに2026年3月6日の判断では、Workdayが主張していた「求職者はADEAのディスパレート・インパクト保護の対象外だ」という論点について、裁判所は原告側の請求継続を認めました。3月30日更新のHR Dive記事では、裁判所がEEOCの長年の解釈にも説得力を認めつつ、年齢差別請求は続行可能と整理したと伝えています。他方で、州法請求や身体障害に関する一部請求は補正を求められています。

2026年2月には、40歳以上で2020年9月24日以降にWorkday経由で応募した人向けの参加通知も公表されました。締め切りは2026年3月7日で、4月8日現在は過ぎています。AI差別論争が、抽象的な倫理論ではなく、集団訴訟と証拠開示の段階まで進んだことが分かります。

採用AIをめぐる規制とガバナンスの拡張

企業説明と裁判所判断のずれ

Workdayは公式ブログで、自社のAI採用ツールは採用決定を自動で下すものではなく、人の判断を支援する設計だと説明しています。顧客が完全な統制と人間の監督を維持し、ツールは人種、年齢、障害といった保護属性で学習していないとも強調しています。こうした説明は、多くの企業がAI導入時に掲げる典型的な防御線でもあります。

ただし、この説明だけではリスク管理として不十分です。保護属性そのものを入力しなくても、職歴の空白、在籍期間、学歴、勤務地などの代理変数から不利益が再生産される可能性があるからです。2026年3月の訴訟でも、原告側は医療休職や治療・回復と相関し得るデータ点が不利益に働いた可能性を再主張しました。AIが「属性を見ていない」と言っても、結果として偏りが生まれるなら争点は残ります。

ここで重要なのは、責任の焦点が意図の有無だけではなく、結果の偏りと検証可能性へ移っていることです。採用AIでも、モデル仕様、監査記録、異議申立て手続き、人間の再審査の実効性がそろわなければ、「人間が最終判断している」という説明は弱いままです。

州法が先行する監査と通知の実務

米国では連邦レベルの包括法より先に、州や自治体が実務ルールを積み上げています。ニューヨーク市のAEDT規制は、採用や昇進に使う自動化ツールについて、利用前1年以内のバイアス監査、公表、候補者への通知を義務づけ、2023年7月5日に施行されました。発想は明快で、「使ってよいか否か」より先に「監査し、知らせ、痕跡を残せ」です。

カリフォルニアでも、自動意思決定システムに関する雇用規則が2025年6月27日に承認され、2025年10月1日に発効しました。州の公表資料は、AIやアルゴリズム利用でも既存の差別禁止法が適用されること、関連データを少なくとも4年間保存すること、障害情報を引き出す設計が違法な医療照会になり得ることを明確にしています。規制の中心は、新技術専用の新権利というより、既存の雇用差別法をAI時代向けに具体化する作業です。

コロラド州も、2024年成立法で雇用を含む高リスクAIに対し、アルゴリズム差別を避けるための合理的注意義務を開発者と導入者の双方に課しました。州司法長官サイトでは、この枠組みが2026年2月1日に発効すると案内しています。今後の法改正議論はあり得ますが、少なくとも2026年4月時点での公式案内は、開発者責任と導入者責任を二重に問う方向です。

注意点・展望

この問題で誤解されやすいのは、「AI企業だけが悪い」あるいは「最終決定者は企業だからベンダーは無関係」という二分法です。実際には、求人要件を設定する企業、候補者データを加工するシステム、推薦ロジックを設計するベンダー、例外審査を運用する現場が連鎖して結果を作ります。

今後の争点は三つあります。第一に、年齢差別以外の人種、障害、性別請求がどこまで立証可能になるかです。第二に、ベンダーがどの程度まで「雇用機会の配分主体」とみなされるかです。第三に、監査や説明責任が形式対応で終わるのか、それとも実際のモデル改善と異議申立て救済に結びつくのかです。保存義務や監査義務を伴う州規制の運用は、企業実務を大きく変える可能性があります。

まとめ

Workday訴訟の本質は、AIが差別するかどうかだけではありません。採用の入り口を握る推薦、順位づけ、足切りの機能が、雇用機会を実質的に左右している以上、その設計者や提供者も責任論から外れにくくなったことにあります。裁判所はすでに、少なくとも一部争点ではその可能性を認めています。

採用AIを使う企業に必要なのは、監査、記録保存、候補者通知、再審査の設計まで含めた統治です。AI差別の論点は、2026年4月時点で倫理論から法務・訴訟・規制対応の実務へ移りました。今後は「AIを使っているか」より「AIの影響を説明できるか」が競争力と法的防御力を左右します。

参考資料:

関連記事

最新ニュース