L'IA dans le recrutement : lorsque l'équité nécessite la technologie et le jugement humain 

Assessio : collaboration d'équipe dans un environnement de bureau moderne pour l'évaluation des talents et le développement des employés.

L'IA promet une plus grande objectivité dans le recrutement, mais elle peut également renforcer les préjugés cachés. Deux experts expliquent comment combiner technologie, éthique et jugement humain afin de prendre des décisions plus équitables.

Par Sofie Brogaard Schmidt, rédactrice en chef, DANSK HR

Helene Hoppe Revald, responsable de la psychométrie chez Assessio et psychologue de formation, dirige le développement et la validation des outils d'évaluation dans toute la région nordique. 

Louise Monnerup, architecte de solutions et psychologue agréée chez Assessio, assure le lien entre le travail psychométrique et les organisations qui utilisent les outils dans la pratique.

L'IA joue un rôle de plus en plus important dans les processus de recrutement, et pour de nombreuses organisations, cette technologie suscite à la fois de l'espoir et des inquiétudes. D'un côté, on attend d'elle qu'elle apporte plus de structure et moins d'intuition. De l'autre, on craint l'apparition de nouvelles formes de partialité et de décisions impossibles à expliquer.

C'est précisément cet équilibre que Helene Hoppe Revald et Louise Monnerup recherchent chaque jour dans leur travail. Helene est responsable de la psychométrie chez Assessio et psychologue de formation. Elle dirige le développement et la validation des outils d'évaluation dans toute la région nordique. Louise est architecte de solutions et psychologue agréée chez Assessio. Elle assure le lien entre le travail psychométrique et les organisations qui utilisent ces outils dans la pratique.

Les préjugés ne disparaissent pas, ils changent simplement de forme. 

Lorsque l'IA s'intègre au processus de recrutement, une question se pose rapidement : la technologie peut-elle nous aider à éviter les préjugés que les humains ont tendance à intégrer dans leurs évaluations ? Helene Hoppe Revald et Louise Monnerup soulignent toutes deux que les préjugés ne disparaissent pas, mais prennent simplement d'autres formes. Elles expliquent que nos préjugés humains sont souvent invisibles à nos propres yeux. Nous avons tendance à préférer certains types de personnes, à interpréter un regard, un passe-temps ou un parcours professionnel, sans même nous en rendre compte. Cependant, l'IA apprend à partir de données historiques, et si ces données portent les traces de préférences passées, le déséquilibre se reproduit avec un impact plus important. Cela signifie que l'IA peut renforcer les schémas mêmes que les organisations tentent d'éliminer. 

Une différence importante réside dans le fait que les préjugés humains varient. Nous pouvons être influencés par notre humeur, le contexte, notre niveau d'énergie ou des interactions subtiles. Les préjugés technologiques, en revanche, sont plus stables. « L'IA est moins sujette aux fluctuations que les humains. Cependant, une fois qu'elle a appris un préjugé, elle répète la même évaluation à maintes reprises », explique Louise. Cela rend les conséquences plus importantes et plus systématiques. 

Helene souligne un autre défi : la capacité de l'IA à identifier des modèles qui peuvent sembler logiques sur la base des données, mais qui n'ont pas nécessairement de réelle pertinence pour les performances professionnelles. « La technologie peut trouver des modèles auxquels nous, en tant qu'êtres humains, ne penserions jamais et que nous ne détecterions donc peut-être pas », explique-t-elle. Cela souligne la nécessité d'une expertise professionnelle critique, en particulier lorsque les organisations commencent à externaliser certaines parties du processus d'évaluation à des algorithmes. 

La recherche derrière l'IA responsable dans les ressources humaines – Télécharger le rapport

Trois situations où des préjugés peuvent apparaître

Dans leur travail, ils constatent que les préjugés interviennent généralement à trois niveaux : 

  • Données :les informations sont-elles pertinentes et valides, et reflètent-elles véritablement ce que vous souhaitez prédire ? 
  • Modèle :comment l'algorithme est-il élaboré et pondéré ? 
  • Interaction :comment les questions, les hypothèses et les suggestions des personnes influencent-elles le résultat ? 

« Il est essentiel de comprendre ces trois niveaux si l'on souhaite utiliser l'IA comme un outil sérieux d'aide à la décision », explique Hélène. Elle souligne que les humains peuvent encore influencer considérablement le système, même involontairement. Cela peut aller de questions imprécises à des suppositions inconscientes sur ce à quoi ressemble un « bon candidat ». 

Louise souligne également que certaines organisations sous-estiment l'importance de la validité des données. « Si vous alimentez une IA avec des données qui n'ont aucun pouvoir prédictif en matière de performances professionnelles, les résultats seront naturellement trompeurs. Ce n'est pas la technologie qui échoue, ce sont nos hypothèses », explique-t-elle. 

La structure comme contrepoids à l'intuition 

Bien que l'IA puisse comporter des biais, cette technologie peut également contribuer à créer des évaluations plus cohérentes et structurées. 

Lorsque de grandes quantités d'informations doivent être reliées entre elles (résultats de tests, études de cas, notes d'entretien et exigences du poste), l'IA peut aider à rester concentré et à garantir que tous les candidats sont évalués selon les mêmes paramètres. Selon Louise, c'est là que l'IA peut faire une réelle différence. 

« Les recherches démontrent que la structure est l'un des moyens les plus efficaces pour minimiser les biais », explique Helene. « L'IA peut contribuer à maintenir cette structure, afin que les évaluations ne s'écartent pas à mesure que la complexité augmente. » 

Helene ajoute que l'IA peut offrir une perspective supplémentaire qui remet en question nos propres hypothèses. Elle ne joue pas le rôle d'arbitre final, mais sert plutôt de soutien qui peut indiquer quand il convient de reconsidérer une décision. « Elle peut nous rappeler que nous risquons de prendre une décision fondée davantage sur la chimie que sur les compétences », explique-t-elle. Cependant, cette structure dépend également du maintien d'un processus de recrutement bien défini au sein des organisations. 

Si le processus est déjà désorganisé ou basé sur l'intuition, l'IA deviendra simplement un élément supplémentaire à gérer. La technologie ne résout pas les problèmes, elle les met en évidence. 

L'expérience candidat : équité ou distance ? 

Si l'IA peut apporter davantage de structure, elle crée également de nouveaux dilemmes dans l'interaction entre le candidat et l'organisation. Helene et Louise soulignent toutes deux que les candidats réagissent différemment à cette technologie. Certains trouvent les processus basés sur l'IA plus équitables, car l'évaluation se concentre davantage sur le contenu que sur l'apparence. D'autres regrettent l'interaction humaine et deviennent sceptiques à l'égard de systèmes qu'ils ne peuvent pas comprendre. 

« Il existe une responsabilité éthique d'être transparent. Si vous ne pouvez pas expliquer pourquoi vous utilisez l'IA et ce qu'il advient des données, cela peut créer de l'incertitude chez les candidats », explique Louise. L'éthique ne concerne donc pas seulement les bases de données et les algorithmes, mais aussi la communication et l'expérience des candidats. 

De plus, une vision fondamentale de la nature humaine est en jeu. Les candidats évaluent largement les organisations en fonction de la manière dont ils se sentent considérés et respectés. Si l'IA est perçue comme un obstacle, cela peut nuire à l'image de marque de l'employeur et à l'attraction des talents. 

De la boîte noire à la transparence 

De nombreux dirigeants considèrent l'IA comme opaque. À cet égard, Helene recommande de poser les mêmes questions essentielles que celles que vous poseriez pour toute autre méthode de recrutement : 

  • Sur quelles connaissances repose-t-il ? 
  • Quelles données sont incluses ? 
  • Quelles sont les limites de ce modèle ? 
  • Comment l'équité est-elle garantie ? 

« Il est nécessaire de pouvoir expliquer sur quoi le modèle fonde ses évaluations, sinon vous ne pouvez pas vous-même le soutenir », affirme-t-elle. 

Louise précise que le fonctionnement des grands modèles linguistiques accessibles au public est souvent difficile à comprendre pleinement, tandis que les solutions d'IA plus ciblées offrent généralement une meilleure compréhension des données sous-jacentes. Il est ainsi plus facile d'évaluer si la technologie est adaptée à l'objectif qu'elle est censée soutenir. 

Êtes-vous prêt à associer l'intelligence artificielle au jugement humain ?

Les compétences évoluent, mais les fondements demeurent inchangés. 

Bien que l'IA nécessite de nouvelles considérations, cela ne signifie pas que les professionnels des ressources humaines et les dirigeants doivent repartir de zéro. Tous deux soulignent que bon nombre des compétences les plus importantes sont déjà en place. 

La capacité à évaluer la qualité des données, à comprendre les facteurs prédictifs de la performance professionnelle et à maintenir des processus structurés reste essentielle. « Nous ne devons pas confier la tâche d'évaluation uniquement à la technologie. Nous devons utiliser notre expertise pour garantir que la technologie est utilisée correctement », explique Louise. 

Helene ajoute que la prise de conscience de nos propres préjugés devient encore plus importante, car les humains continuent d'influencer le système par le biais des questions et des instructions qu'ils fournissent. « Nous faisons toujours partie de l'équation. Cette responsabilité ne peut être déléguée. » 

La décision stratégique : dans quels domaines l'IA est-elle pertinente ?

Pour que l'IA soit utilisée de manière responsable, son utilisation doit être un choix conscient, et non un moyen rapide de gagner du temps. Les organisations doivent déterminer dans quels domaines cette technologie crée véritablement de la valeur et dans quels domaines le contact humain est indispensable. 

« L'IA ne devrait pas être utilisée pour elle-même », affirme Louise. « Elle devrait être employée lorsque cela rend le processus plus cohérent et équitable, et non dans des situations où les relations humaines sont primordiales. » 

Helene conclut par une remarque sur la transparence : « Si nous ne sommes pas en mesure d'expliquer aux candidats pourquoi nous utilisons l'IA et comment elle renforce le processus, cela peut indiquer que nous avons perdu de vue l'aspect humain. L'équité repose à la fois sur les données et le dialogue. » 

Comme ils le soulignent tous deux, l'IA n'est qu'un outil et ne remplace pas le jugement humain. Même si la technologie évolue rapidement, ce sont toujours les individus qui déterminent la direction à suivre. L'équité ne peut être atteinte que lorsque nous osons combiner données, jugement et conscience éthique. 

Découvrez comment Assessio utilise l'IA de manière responsable – Réservez une démonstration.