Tri automatise de CV, chatbots d’entretien, scoring de performance, detection predictive du turnover : l’intelligence artificielle investit massivement les directions des ressources humaines. Selon une etude de l’ANDRH publiee en 2026, pres de 35 % des grandes entreprises francaises utilisent desormais des outils d’IA dans au moins une étape de leur processus RH. Mais cette revolution technologique s’inscrit dans un cadre juridique en pleine construction, a la croisee du droit du travail, du reglement general sur la protection des donnees (RGPD) et du tout recent reglement europeen sur l’intelligence artificielle (AI Act). Quel est l’etat du droit ? Quelles obligations pesent sur l’employeur ? Quels droits pour les salaries ? Cet article fait le point sur un sujet en constante evolution.
1. Le droit du travail face aux decisions automatisees
Le Code du travail n’a pas ete concu pour encadrer specifiquement l’intelligence artificielle. Neanmoins, plusieurs dispositions existantes trouvent a s’appliquer des lors que l’employeur utilise des outils technologiques pour prendre des decisions affectant les salaries.
L’article L.1222-3 du Code du travail pose un principe fondamental : « le salarie est expressement informe, prealablement a leur mise en oeuvre, des methodes et techniques d’évaluation professionnelle mises en oeuvre a son egard ». Ce texte, bien qu’anterieur a l’emergence de l’IA, s’applique pleinement aux algorithmes d’évaluation de la performance. L’employeur qui utilise un outil d’IA pour evaluer ses salaries doit les en informer prealablement et s’assurer que les methodes utilisees sont pertinentes au regard de la finalite poursuivie.
L’article L.1222-4 du Code du travail complete ce dispositif en prevoyant qu’« aucune information concernant personnellement un salarie ne peut etre collectee par un dispositif qui n’a pas ete porte prealablement a sa connaissance ». Applique aux outils d’IA, ce texte impose une transparence totale sur les donnees collectees et les traitements realises.
Point cle : Meme en l’absence de texte specifique a l’IA, le Code du travail impose deja une obligation de transparence et d’information prealable du salarie sur tout dispositif d’évaluation ou de collecte de donnees personnelles.
2. Le RGPD : un rempart essentiel contre les derives algorithmiques
Le reglement (UE) 2016/679 du 27 avril 2016, dit RGPD, constitue le texte le plus structurant pour encadrer l’utilisation de l’IA dans les ressources humaines. Plusieurs de ses dispositions sont directement applicables a la relation de travail.
L’interdiction de principe des decisions entierement automatisees (article 22)
L’article 22 du RGPD pose un principe fondamental : « la personne concernee a le droit de ne pas faire l’objet d’une decision fondee exclusivement sur un traitement automatise, y compris le profilage, produisant des effets juridiques la concernant ou l’affectant de maniere significative de facon similaire ». Applique au monde du travail, cet article interdit en principe a l’employeur de fonder une decision d’embauche, de promotion, de mutation ou de licenciement exclusivement sur le resultat d’un algorithme.
Des exceptions existent lorsque la decision automatisee est necessaire a l’execution d’un contrat, autorisee par le droit de l’Union ou d’un État membre, ou fondee sur le consentement explicite de la personne concernee. Toutefois, dans le contexte de la relation de travail, le consentement du salarie est rarement considere comme libre et eclaire en raison du lien de subordination.
Le droit a l’explication et a la transparence
Les articles 13 et 14 du RGPD imposent au responsable du traitement de fournir a la personne concernee des informations sur « l’existence d’une prise de decision automatisee, y compris un profilage (…) et, au moins en pareils cas, des informations utiles concernant la logique sous-jacente, ainsi que l’importance et les consequences prevues de ce traitement ». L’employeur doit donc etre en mesure d’expliquer, en termes comprehensibles, comment fonctionne l’algorithme utilise et quelles consequences il produit.
En France, la loi Informatique et Libertes du 6 janvier 1978, modifiee pour integrer le RGPD, prevoit a son article 47 que toute personne faisant l’objet d’une decision fondee sur un traitement automatise peut obtenir la communication des regles de ce traitement et demander que la decision soit revisee par une personne physique.
3. L’IA dans le recrutement : un terrain juridique sensible
Le recrutement constitue le domaine ou l’utilisation de l’IA est la plus repandue et la plus risquee juridiquement. Les outils de tri automatise de CV, d’analyse video d’entretiens ou de scoring predictif posent des questions majeures en matiere de discrimination et de respect des libertes individuelles.
L’article L.1132-1 du Code du travail interdit toute discrimination dans le recrutement fondee sur l’origine, le sexe, l’age, la situation de famille, l’orientation sexuelle, les convictions religieuses, l’etat de sante, le handicap ou l’appartenance syndicale. Or, les algorithmes d’IA sont susceptibles de reproduire et d’amplifier les biais discriminatoires presents dans les donnees d’entrainement. Un outil entraine sur des historiques de recrutement biaises (par exemple, favorisant systemiquement les hommes pour des postes techniques) reproduira mecaniquement cette discrimination.
La CNIL a publie en avril 2026 un guide pratique intitule « Intelligence artificielle et recrutement », dans lequel elle rappelle que l’utilisation d’outils d’IA dans le processus de recrutement doit respecter les principes de finalite, de minimisation des donnees, de transparence et de non-discrimination. Elle recommande notamment de realiser une analyse d’impact relative a la protection des donnees (AIPD) prealablement a tout deploiement d’un outil d’IA a grande echelle dans le processus RH.
« L’utilisation d’un algorithme ne saurait exonerer l’employeur de sa responsabilite en matiere de non-discrimination. Le fait qu’une decision soit prise par une machine n’efface pas l’obligation legale de traiter equitablement chaque candidat. » — Position de la CNIL, Guide IA et recrutement, 2026
4. L’évaluation automatisee de la performance : quelles limites ?
De plus en plus d’entreprises deploient des outils d’IA pour evaluer en continu la performance de leurs salaries : analyse de la productivite, mesure de l’engagement, detection des signaux faibles de desengagement. Ces pratiques posent des questions juridiques complexes.
L’article L.1222-3 du Code du travail exige que les methodes d’évaluation soient « pertinentes au regard de la finalite poursuivie ». Ce critere de proportionnalite impose a l’employeur de demontrer que l’outil d’IA utilise mesure effectivement ce qu’il pretend mesurer et que les resultats sont fiables. Un algorithme de scoring dont les criteres sont opaques ou dont les resultats presentent des biais systematiques ne satisferait pas a cette exigence.
Par ailleurs, l’article L.2312-38 du Code du travail prevoit que le comite social et économique (CSE) doit etre informe et consulte prealablement a l’introduction de « toute technologie de controle de l’activite des salaries ». L’employeur qui deploie un outil d’IA d’évaluation de la performance sans consultation prealable du CSE s’expose a un delit d’entrave et a la nullite de la mesure.
Attention : La surveillance algorithmique permanente des salaries (keylogging, analyse des emails, monitoring de l’activite en temps reel) est susceptible de porter une atteinte disproportionnee au droit au respect de la vie privee protege par l’article L.1121-1 du Code du travail et par l’article 8 de la Convention europeenne des droits de l’homme.
5. Le role du CSE et le droit a l’information des representants du personnel
Le comite social et économique joue un role central dans l’encadrement de l’utilisation de l’IA en entreprise. Plusieurs dispositions du Code du travail fondent ses prerogatives dans ce domaine.
L’article L.2312-8 du Code du travail confere au CSE une competence generale de consultation sur les « questions interessant l’organisation, la gestion et la marche generale de l’entreprise », ce qui inclut l’introduction de technologies nouvelles. L’article L.2312-38 specifie que le CSE est informe et consulte prealablement a toute decision d’introduire de nouvelles technologies dans l’entreprise, ainsi qu’avant toute modification des conditions de travail qui en resulte.
En outre, dans le cadre de la base de donnees économiques, sociales et environnementales (BDESE), l’employeur doit communiquer des informations sur les investissements technologiques et leurs consequences sur l’emploi et les conditions de travail. Le CSE peut egalement recourir a un expert technique en cas d’introduction de nouvelles technologies, conformement a l’article L.2315-94 du Code du travail.
6. L’AI Act europeen : ce qui va changer pour les employeurs
Le reglement (UE) 2026/1689 du 13 juin 2026, dit AI Act (reglement europeen sur l’intelligence artificielle), est entre en vigueur le 1er aout 2026 et s’appliquera progressivement jusqu’en aout 2027. Il constitue le premier cadre juridique global au monde specifiquement dedie a l’IA.
L’AI Act classe les systemes d’IA selon une approche fondee sur le risque. Les systemes d’IA utilises dans le domaine de l’emploi et de la gestion des travailleurs sont classes comme systemes a haut risque (Annexe III, point 4). Sont concernes les outils d’IA utilises pour :
- Le recrutement et la selection de candidats (tri de CV, scoring, entretiens video analyses)
- La prise de decisions affectant les conditions de la relation de travail (promotion, mutation, remuneration)
- L’évaluation et le suivi de la performance et du comportement des salaries
- La rupture des relations contractuelles de travail
Pour ces systemes a haut risque, l’AI Act impose des obligations renforcees aux fournisseurs et aux deploieurs (c’est-a-dire les employeurs). Parmi ces obligations figurent la mise en place d’un systeme de gestion des risques, la realisation d’évaluations de conformite, la tenue d’une documentation technique detaillee, la garantie d’une supervision humaine effective, et le respect d’exigences strictes en matiere de qualite des donnees et de transparence.
7. L’obligation de supervision humaine : le principe du « human in the loop »
Tant le RGPD que l’AI Act convergent vers une exigence fondamentale : toute decision ayant un impact significatif sur un salarie ou un candidat doit faire l’objet d’une supervision humaine effective. Le principe du « human in the loop » (intervention humaine dans la boucle decisionnelle) impose qu’un operateur humain qualifie soit en mesure de comprendre les resultats produits par l’IA, de les contester et de les infirmer le cas echeant.
En pratique, cela signifie que :
- Un algorithme de tri de CV peut classer les candidatures, mais la decision finale de convoquer ou d’ecarter un candidat doit revenir a un recruteur humain
- Un outil de scoring de performance peut produire des indicateurs, mais la decision de promotion ou de sanction ne peut reposer exclusivement sur ces indicateurs
- Les salaries doivent avoir la possibilite de contester une decision prise avec l’aide de l’IA et d’obtenir un reexamen par une personne physique competente
L’article 14 de l’AI Act prevoit que les systemes d’IA a haut risque doivent etre concus de maniere a pouvoir etre « efficacement supervises par des personnes physiques pendant la periode d’utilisation ». L’employeur deploieur doit s’assurer que les personnes chargees de la supervision ont la competence, la formation et l’autorite necessaires pour exercer cette fonction.
8. Recommandations pratiques pour les employeurs
Face a la complexite du cadre juridique applicable, les employeurs souhaitant deployer des outils d’IA dans leur gestion des ressources humaines doivent adopter une demarche structuree et anticipatrice.
- Realiser une analyse d’impact (AIPD) avant tout deploiement d’un outil d’IA traitant des donnees personnelles de salaries ou de candidats, conformement a l’article 35 du RGPD
- Consulter le CSE prealablement a l’introduction de tout outil d’IA dans le processus RH, conformement a l’article L.2312-38 du Code du travail
- Informer individuellement les salaries des methodes d’évaluation utilisees et des donnees collectees, en application des articles L.1222-3 et L.1222-4 du Code du travail
- Auditer regulierement les algorithmes pour detecter et corriger les biais discriminatoires, en associant le DPO et les representants du personnel
- Garantir une intervention humaine dans toute decision individuelle fondee sur les resultats de l’IA, en conformite avec l’article 22 du RGPD et les exigences de l’AI Act
- Former les equipes RH a l’utilisation responsable des outils d’IA et a la comprehension de leurs limites
- Anticiper l’entree en application de l’AI Act en cartographiant les systemes d’IA utilises dans l’entreprise et en evaluant leur niveau de risque au regard de la classification europeenne
A retenir : L’utilisation de l’IA en ressources humaines s’inscrit dans un cadre juridique dense et en evolution rapide. Le RGPD interdit les decisions entierement automatisees, le Code du travail impose la transparence et la consultation du CSE, et l’AI Act classe les outils RH parmi les systemes a haut risque avec des obligations renforcees. L’employeur qui anticipe ces contraintes transforme une obligation reglementaire en avantage concurrentiel, en deployant une IA responsable et juridiquement securisee.