Par Kaouther Boubaya et Pierre Bourget
En droit français, l’article L.1132-1 du Code du travail interdit toute discrimination à l’embauche, imposant ainsi que le recrutement repose uniquement sur des critères professionnels objectifs tels que les compétences et les qualifications. L’article 225-1 du Code pénal définit la discrimination, et l’article 225-2 précise qu’un refus d’embauche fondé sur un critère discriminatoire constitue une infraction pénale punie de trois ans d’emprisonnement et de 45 000 euros d’amende.
A ce titre, les entreprises ont intérêt à diversifier leurs canaux de recrutement et à former leurs équipes aux biais inconscients. D’autant de plus, que des nombreuses études démontrent qu’un recrutement inclusif favorise la performance des entreprises en intégrant des perspectives variées et en valorisant des expériences professionnelles et personnelles hétérogènes (Gardner, 2018).
Dans ce contexte, l’IA pourrait être un levier clé pour concilier efficience et diversité dans le recrutement, à condition d’être utilisée de manière éthique et responsable. Cela nécessite une vigilance accrue dans la conception des algorithmes, une régulation adaptée et une volonté des entreprises d’intégrer des critères de diversité sans contrevenir aux principes de méritocratie.
Nous avons mené une étude sur ce sujet. Dans ce cadre, nous avons interrogé des managers, des recruteurs et des candidats afin d’analyser leurs expériences et leurs points de vue sur ce sujet. Trois grands thèmes se dégagent : les biais des algorithmes, les limites de l’objectivité, et les bonnes pratiques à mettre en place.

À lire aussi
L’essor de l’IA a profondément transformé le paysage du recrutement en permettant l’automatisation de plusieurs tâches, telles que le tri de CV, l’analyse des compétences et la sélection des profils les plus pertinents. Les entreprises adoptent des outils basés sur l’IA pour accroître la rapidité et l’efficacité de leurs processus, réduisant ainsi le coût et la durée des embauches. Toutefois, si l’IA offre des opportunités considérables, elle présente également des défis majeurs en matière d’éthique et d’équité.
Les biais algorithmiques dans le recrutement proviennent principalement de données historiques biaisées, de la sélection des variables dans les modèles prédictifs et des méthodologies d’apprentissage machine utilisées. Plusieurs études ont démontré que l’IA peut perpétuer les inégalités en raison de la nature même des données sur lesquelles elle est entraînée. Une analyse menée en Finlande a révélé que plus de 70 % des répondants perçoivent des biais dans les outils d’IA utilisés pour le recrutement, en particulier à l’égard des candidats issus de minorités ethniques ou de nationalités étrangères. De plus, certaines plateformes de recrutement IA excluent involontairement des profils en raison de critères indirectement liés à l’origine, comme le lieu de résidence ou l’établissement d’enseignement fréquenté. Par exemple, l’algorithme de recrutement d’Amazon a été abandonné après avoir démontré un biais contre les femmes en raison de données historiques discriminatoires. Ce phénomène, souvent qualifié de Garbage In, Garbage Out (GIGO), souligne le risque d’introduction de biais systématiques dans les décisions algorithmiques si les données utilisées pour entraîner les modèles sont elles-mêmes biaisées.
Malgré ces limitations, certaines études suggèrent que l’IA peut être exploitée pour améliorer la diversité et l’inclusion, à condition que des garde-fous appropriés soient mis en place. Par exemple, l’utilisation de modèles d’apprentissage automatique qui neutralisent les variables sensibles (genre, âge, origine ethnique) peut aider à réduire les discriminations. Certains chercheurs proposent l’adoption d’algorithmes transparents et audités régulièrement pour identifier et corriger les biais présents dans les processus de sélection. D’autres recommandent de concevoir des systèmes IA en collaboration avec des experts en D&I et des représentants de groupes sous-représentés afin d’assurer une prise en compte des enjeux d’inclusion dès la phase de conception des algorithmes.
L’un des principaux défis des systèmes de recrutement basés sur l’IA réside dans leur manque de transparence, souvent qualifié d’ »effet boîte noire ». Pour remédier à cela, plusieurs chercheurs plaident pour l’implémentation de modèles explicables (Explainable AI – XAI), permettant aux recruteurs et candidats de comprendre les critères de décision des algorithmes. L’implication des humains dans les décisions de recrutement assistées par l’IA est essentielle pour prévenir les erreurs et discriminations. Certains experts recommandent ainsi de ne pas se reposer uniquement sur les décisions algorithmiques mais de les compléter par une validation humaine systématique. Un autre levier d’action consiste à former les recruteurs et managers aux biais algorithmiques et aux principes de D&I. Plusieurs études soulignent l’importance d’une formation continue pour mieux comprendre les impacts des outils d’IA et éviter une confiance aveugle dans les résultats des algorithmes. Enfin, la mise en place de cadres réglementaires adaptés est une condition sine qua non pour garantir une IA de recrutement équitable. La Commission Européenne et d’autres instances internationales travaillent actuellement à l’élaboration de cadres éthiques visant à réguler l’usage de l’IA dans des domaines sensibles comme l’emploi.
/image%2F7007800%2F20251022%2Fob_60d0f5_ai-recrutement-826x459.jpg)

