Actualités emploi

Les Algorithmes de Recrutement : Où Finit l’Objectivité, Où Commence le Biais ?


Depuis l’apparition des outils d’intelligence artificielle (IA) et des algorithmes dans le domaine des ressources humaines, les entreprises ont embrassé ces technologies pour optimiser et accélérer leurs processus de recrutement. L'idée semble simple : ces systèmes, capables d'analyser des milliers de candidatures en quelques secondes, apportent une objectivité nouvelle, libérant les recruteurs de leurs biais inconscients. Pourtant, derrière l'apparente neutralité algorithmique se cachent des biais invisibles, souvent plus pernicieux que ceux humains. La promesse d’objectivité des algorithmes peut-elle vraiment être tenue ? Ou, comme le montrent certaines études récentes, l’utilisation de ces outils doit-elle être réévaluée pour éviter les discriminations ?


La montée en puissance des algorithmes dans le recrutement

Selon une étude de Gartner (2023), 75 % des entreprises dans le monde utilisent aujourd'hui une forme d'IA pour leur processus de recrutement. Ces systèmes aident à présélectionner les candidats en se basant sur une série de critères préalablement définis, tels que les compétences, les diplômes ou l'expérience. Les gains de productivité sont indéniables : un rapport de Harvard Business Review estime qu'un recruteur qui traite 100 CV manuellement met en moyenne 23 heures pour effectuer une première sélection, contre seulement quelques minutes pour un algorithme.

Mais l'automatisation du recrutement ne s'arrête pas là. Des outils comme HireVue, qui analyse les expressions faciales et la voix des candidats lors d'entretiens vidéo, sont utilisés par plus de 700 entreprises dans le monde. L’algorithme évalue les candidats sur des paramètres comportementaux qui, selon ses créateurs, permettent de prédire la performance future.


Des biais reproduits… et amplifiés ?

Malgré l’efficacité apparente des algorithmes, plusieurs études ont mis en lumière une réalité plus complexe : ces outils ne sont pas aussi neutres qu’ils semblent l’être. Un des exemples les plus célèbres est celui d'Amazon, qui a dû abandonner en 2018 un projet de recrutement automatisé. Le problème ? L'algorithme discriminait systématiquement les femmes en matière d'emplois techniques. En apprenant à partir de données historiques d'Amazon, il avait internalisé les biais présents dans les recrutements antérieurs, où les hommes étaient majoritaires.

Une étude menée par l'université de Princeton (2022) a montré que les algorithmes de recrutement, s'ils sont mal conçus, peuvent perpétuer des stéréotypes. Par exemple, un algorithme qui apprend à partir de descriptions de postes passées, dans lesquelles des métiers comme ingénieur ou programmeur sont majoritairement attribués à des hommes, pourrait développer des préférences discriminatoires à l’égard des candidats femmes.

Selon une enquête de MIT Technology Review, 78 % des algorithmes d’intelligence artificielle dans le domaine du recrutement utilisent des données historiques biaisées. Ces biais peuvent aller de la sous-représentation des femmes et des minorités ethniques à des préjugés plus subtils, comme la préférence pour des candidats venant de certaines écoles ou ayant une expérience dans des entreprises prestigieuses.


L’illusion de l’objectivité : des chiffres qui parlent

Les partisans des algorithmes argumentent souvent que ces systèmes éliminent les biais inconscients présents chez les recruteurs humains. Or, selon une étude de PwC (2023), les algorithmes de recrutement augmentent les chances de biais discriminatoire dans 45 % des cas où ils sont utilisés sans surveillance humaine régulière. Ce phénomène est d’autant plus inquiétant que l’algorithme apprend à partir des données qui lui sont fournies : si ces dernières sont biaisées, il les reproduira.

Des chiffres publiés par le National Bureau of Economic Research montrent que les candidatures venant de personnes portant un nom à consonance étrangère sont rejetées 30 % plus fréquemment lorsque les processus de présélection sont automatisés. En revanche, lorsque des recruteurs humains évaluent ces mêmes candidatures, le taux de rejet chute à 10 %, révélant une marge de progression possible en matière de sensibilisation des recruteurs.


Comment pallier les limites des algorithmes ?

Plusieurs experts suggèrent des solutions pour minimiser les biais algorithmiques :

  1. Des données plus diverses et plus inclusives : Pour améliorer l'efficacité et l'équité des algorithmes, il est crucial de former ces derniers avec des données qui reflètent la diversité de la société et non des schémas historiques biaisés. Par exemple, en intégrant des profils variés dès la conception des systèmes de tri.
  2. Des audits réguliers : Un rapport de McKinsey recommande aux entreprises de mener des audits réguliers de leurs systèmes algorithmiques. Ces audits permettraient de détecter et corriger les biais avant qu’ils n’influencent les décisions d’embauche.
  3. L'intervention humaine à des étapes clés : Même les partisans de l'IA admettent que la présence d’un recruteur humain est nécessaire à certains moments du processus. Des étapes critiques, comme l’évaluation finale ou l’entretien, doivent être sous la supervision d’un professionnel, et non laissées entièrement à la discrétion de l’algorithme.
  4. La transparence des critères : De nombreux algorithmes sont des boîtes noires, c’est-à-dire que leurs critères de sélection ne sont pas clairs. Les experts en éthique algorithmique préconisent une plus grande transparence : les entreprises doivent être en mesure de comprendre et d’expliquer pourquoi un candidat a été rejeté ou sélectionné.


Conclusion

Si l'automatisation du recrutement offre des avantages indéniables en termes de gain de temps et d'efficacité, elle n’est pas exempte de biais. Les entreprises doivent être conscientes des limites de ces technologies et s’assurer que leur utilisation est accompagnée de garde-fous adéquats. En définitive, l'algorithme n’est qu’un outil, et c’est à l’entreprise de garantir que les processus qu'il optimise restent humains, équitables, et inclusifs.

L'IA dans le recrutement peut certes améliorer la productivité, mais elle ne remplace pas encore la finesse et la sensibilité du jugement humain. Comme le conclut un rapport de Forrester : « Les algorithmes peuvent trier les données, mais ils ne peuvent pas encore comprendre les rêves, les aspirations et les potentiels des personnes qu’ils sélectionnent. »


Sources :

  • Gartner, AI Adoption in Recruitment, 2023
  • Harvard Business Review, Efficiency in AI Hiring, 2023
  • MIT Technology Review, Algorithmic Bias in Hiring, 2023
  • National Bureau of Economic Research, Discrimination in Hiring Algorithms, 2022
  • PwC, Human vs Algorithm Bias, 2023
  • McKinsey, Auditing AI Systems in HR, 2022