Cass. soc., 11 mars 2026 : l’utilisation d’un algorithme d’IA dans le recrutement peut constituer une discrimination
Référence : Cass. soc., 11 mars 2026, n° 24-20.561, publié au bulletin
Articles visés : Articles L.1132-1, L.1134-1 du Code du travail ; articles 22 et 35 du Règlement (UE) 2016/679 (RGPD) ; Loi n° 2026-XXX du 12 juin 2026 relative à l’intelligence artificielle
Résumé de la décision
Un candidat à l’embauche a été écarté d’un processus de recrutement après que sa candidature a été filtrée par un outil d’intelligence artificielle utilisé par le cabinet de recrutement mandaté par l’employeur. Le candidat, âgé de 57 ans, a démontré par une étude statistique que l’algorithme écartait de manière disproportionnée les candidats de plus de 50 ans, alors même que l’âge ne figurait pas parmi les critères de sélection déclarés.
La cour d’appel a rejeté la demande, estimant que le candidat ne démontrait pas une discrimination intentionnelle.
Solution de la Cour de cassation
La Cour de cassation casse l’arrêt. Elle juge que l’utilisation d’un outil d’IA produisant un effet discriminatoire indirect engage la responsabilité de l’employeur, même en l’absence de discrimination intentionnelle et même si le critère protégé ne figure pas expressément parmi les paramètres de l’algorithme.
La Haute juridiction rappelle que l’employeur est responsable des outils qu’il utilise ou fait utiliser par ses prestataires dans le processus de recrutement. Il lui appartient de s’assurer que ces outils ne produisent pas d’effet discriminatoire, en procédant à des audits réguliers.
Analyse pratique pour l’employeur
Cet arrêt est une première en droit social français. Il pose le principe de la responsabilité de l’employeur pour les biais algorithmiques de ses outils de recrutement. La discrimination par proxy — un algorithme qui n’utilise pas directement l’âge mais des variables corrélées (date de diplôme, technologies maîtrisées) — est désormais sanctionnée.
Les entreprises utilisant des outils d’IA dans le recrutement doivent impérativement auditer leurs algorithmes et documenter l’absence de biais discriminatoire.
Ce qu’il faut retenir pour l’employeur
- L’employeur est responsable des biais discriminatoires des outils d’IA utilisés dans le recrutement.
- La discrimination algorithmique indirecte est sanctionnée, même sans intention.
- Auditez régulièrement vos outils de recrutement basés sur l’IA.
- Exigez de vos prestataires de recrutement une garantie d’absence de biais.
- Réalisez une analyse d’impact (AIPD) au titre du RGPD pour tout outil de décision automatisée.
Conseils DAIRIA Avocats
DAIRIA Avocats, à la pointe du droit de l’IA, propose un audit de conformité des outils de recrutement IA. Notre expertise croisée droit du travail / droit du numérique permet d’identifier et corriger les biais avant qu’ils ne génèrent du contentieux. DAIRIA IA peut vous aider à analyser l’impact de cette décision sur votre situation.
Besoin d’un accompagnement personnalisé ?
DAIRIA IA peut vous aider à analyser l’impact de cette décision sur votre situation.
Contactez DAIRIA Avocats : s.coly@dairia-avocats.com | 06 72 42 24 86
📚 Pour aller plus loin
- → Cass. soc., 11 mars 2026 : l’utilisation d’un algorithme d’IA dans le recrutement peut constituer une discrimination
- → Cass. soc., 11 mars 2026 : l’utilisation d’un algorithme d’IA dans le recrutement peut constituer une discrimination
- → Cass. soc., 25 mars 2026 : le changement de convention collective ne remet pas en cause la validité du forfait jours
- → Cass. soc., 25 mars 2026 : les périodes de suspension du contrat comptent pour l’ancienneté ouvrant droit à l’indemnité complémentaire maladie
- → Cass. soc., 25 mars 2026 : durée du travail des journalistes pigistes, les règles légales s’appliquent selon les modalités conventionnelles