Comment sécuriser l’usage de l’IA dans les processus RH ?

Comment sécuriser l’usage de l’IA dans les processus RH ?

L’intelligence artificielle générative (IAG) transforme rapidement les pratiques RH, sur l’ensemble de la relation d’emploi : recrutement, gestion des compétences, formation, rupture de contrat… Quels sont les ancrages réglementaires à ne jamais perdre de vue ? Comment l’IA bouscule-t-elle le dialogue social ? Que doivent faire les DRH pour aider leur entreprise à ne pas regarder « le train passer » ? Sébastien Leroy, avocat associé chez Actance, nous a répondu.

Quelles sont les règles à respecter lorsqu'on intègre de l’IA dans les processus RH, pour le recrutement ou l’évaluation des collaborateurs par exemple ?

L’usage de l’IA dans les ressources humaines doit répondre à trois principes-clés : finalité, pertinence et transparence, au titre du Code du travail, du règlement communautaire relatif à l’IA et du RGPD. Par exemple, si un DRH utilise un outil dopé à l’IA pour trier des CV ou évaluer des compétences, il doit informer les candidats et les salariés, et ne peut collecter que des données strictement liées au poste.

La non-discrimination est un autre enjeu critique. Un outil de sélection biaisé peut exposer l’entreprise à de lourdes sanctions. De plus, toute utilisation d’une technologie de contrôle de l’activité doit faire l’objet d’une information des salariés concernés, mais aussi d’une consultation préalable du CSE, qui peut se faire assister d’un expert.

L’IAG aura des conséquences sur l’organisation du travail et sur les emplois : comment anticiper ?

L’introduction d’IA peut modifier profondément les postes. Certaines tâches peuvent être automatisées à hauteur de 20 à 30 %, comme le suggèrent plusieurs rapports prospectifs. Cela pose une question centrale : que fait-on du temps libéré ? Il peut être tentant pour l’entreprise de supprimer les postes correspondants à cette « optimisation », mais elle devra, au préalable, assumer ses obligations consultatives auprès de son CSE et, si nécessaire, son « devoir d’adaptation » auprès des collaborateurs concernés.

J’aimerais souligner que l’IA correspond à une « mutation technologique ». À ce titre, elle constitue un motif autonome de licenciement économique. S’il est moins utilisé que les autres motifs de licenciement économique, à savoir les difficultés économiques ou le besoin de sauvegarder la compétitivité, ce troisième motif existe et correspond bien à la réalité de l’IAG. Cependant, les juges seront particulièrement attentifs au respect des obligations de formation ; et à la capacité de l’entreprise à justifier qu’elle a tout mis en œuvre pour adapter le salarié à son nouvel environnement.

Vous comprenez que dans ce contexte, la gestion prévisionnelle des emplois et des compétences (GPEC) prend une dimension stratégique. Elle devient le cadre dans lequel l’entreprise anticipe les effets de l’IA, identifie les métiers concernés et accompagne les transitions internes, notamment via la formation ou la mobilité. Le dialogue social, selon moi, devrait rapidement faire de l’IAG un thème central.

Comment encadrer les usages que les collaborateurs eux-mêmes font de l’IAG ?

La première étape est de poser un cadre clair : toute utilisation d’un outil numérique, y compris une IA, relève du règlement intérieur ou d’une charte. C’est une « figure imposée » du droit du travail, rien de complexe, mais à ne pas négliger.

Ensuite, je tiens à souligner que l’entreprise doit informer et former ses collaborateurs à utiliser convenablement un outil intégrant de l’IA. C’est une obligation depuis le RIA du 13 juin 2024, qui encadre d’ailleurs l’usage de l’IA selon le niveau de risque des outils utilisés. Le règlement intérieur ou la Charte, associé(e) à l’information et la formation, permettent de limiter les dérives liées au « Shadow AI » : une utilisation non encadrée par les salariés via leurs propres terminaux, avec des risques de sécurité, de biais ou « d’hallucinations » de l’IA.

Le dialogue social est là encore essentiel. Certaines entreprises, notamment dans la banque-assurance, sont déjà très avancées sur le sujet. Mais la maturité reste variable selon les secteurs. Mieux vaut anticiper en intégrant l’IA aux négociations périodiques sur la gestion des emplois et des parcours professionnels, quitte à mettre en place des points d’étape plus fréquents. Le cadrage méthodologique, en lien avec les partenaires sociaux, est un facteur-clé de succès. DRH, élus du personnel et syndicats doivent s’en emparer : tout le monde est concerné.

Florence Boulenger
Gestionnaire de contenu

Florence Boulenger est journaliste et consultante éditoriale, spécialisée dans les transformations des entreprises, avec un intérêt marqué pour le numérique et le futur du travail.