AI in recruitment: wanneer eerlijkheid technologie vereist – en menselijk oordeel 

Assessio teamsamenwerking in een moderne kantooromgeving voor talentbeoordeling en personeelsontwikkeling.

AI belooft meer objectiviteit bij recruitment, maar kan ook verborgen vooroordelen versterken. Twee experts leggen uit hoe technologie, ethiek en menselijk oordeel kunnen worden gecombineerd om tot eerlijkere beslissingen te komen.

Door Sofie Brogaard Schmidt, redacteur, DANSK HR

Helene Hoppe Revald, hoofd Psychometrie bij Assessio en opgeleid psycholoog, leidt de ontwikkeling en validatie van beoordelingsinstrumenten in de hele Scandinavische regio. 

Louise Monnerup, Solution Architect en erkend psycholoog bij Assessio, fungeert als schakel tussen het psychometrische werk en de organisaties die de tools in de praktijk gebruiken.

AI speelt een steeds prominentere rol in recruitment en voor veel organisaties roept deze technologie zowel hoop als bezorgdheid op. Enerzijds zijn er verwachtingen van meer structuur en minder intuïtie. Anderzijds bestaat er angst voor nieuwe vormen van vooringenomenheid en beslissingen die niet kunnen worden uitgelegd.

Dit evenwicht is precies waar Helene Hoppe Revald en Louise Monnerup dagelijks mee bezig zijn. Helene is hoofd Psychometrie bij Assessio en opgeleid psycholoog. Ze geeft leiding aan de ontwikkeling en validatie van assessmenttools in de Scandinavische regio. Louise is Solution Architect en erkend psycholoog bij Assessio. Zij vormt de schakel tussen het psychometrische werk en de organisaties die de tools in de praktijk gebruiken.

Vooringenomenheid verdwijnt niet – het verandert van vorm 

Wanneer AI onderdeel wordt van het recruitment , rijst al snel de vraag: kan technologie ons helpen om de vooroordelen te vermijden die mensen doorgaans meenemen in hun beoordelingen? Zowel Helene Hoppe Revald als Louise Monnerup wijzen erop dat vooroordelen niet verdwijnen, maar gewoon een andere vorm aannemen. Ze leggen uit dat onze menselijke vooroordelen vaak onzichtbaar zijn voor onszelf. We hebben de neiging om bepaalde soorten mensen te prefereren, betekenis te lezen in een blik, een hobby of een carrièrepad – allemaal zonder dat we ons daarvan bewust zijn. Maar AI leert van historische gegevens, en als die gegevens sporen van voorkeuren uit het verleden bevatten, wordt de onevenwichtigheid met nog grotere impact gereproduceerd. Dit betekent dat AI juist de patronen kan versterken die organisaties proberen te elimineren. 

Een belangrijk verschil is dat menselijke vooringenomenheid varieert. We kunnen worden beïnvloed door onze stemming, de context, ons energieniveau of subtiele chemie. Technologische vooringenomenheid is daarentegen stabieler. "AI is minder luidruchtig dan mensen. Maar als het eenmaal een vooringenomenheid heeft geleerd, herhaalt het dezelfde beoordeling keer op keer", zegt Louise. Dit maakt de gevolgen groter en systematischer. 

Helene wijst op nog een andere uitdaging: het vermogen van AI om patronen te herkennen die op basis van gegevens logisch lijken, maar die niet noodzakelijkerwijs echt relevant zijn voor performance. "Technologie kan patronen ontdekken waar wij als mensen nooit aan zouden denken – en die we daarom misschien niet zouden opmerken", zegt ze. Dit onderstreept de noodzaak van kritische professionele expertise, vooral nu organisaties delen van het beoordelingsproces beginnen uit te besteden aan algoritmen. 

Het onderzoek achter verantwoordelijke AI in HR – Download het rapport

Drie plaatsen waar vooringenomenheid ontstaat

In hun werk zien ze dat vooringenomenheid meestal op drie punten optreedt: 

  • Gegevens:is de informatie relevant en geldig, en geeft deze echt weer wat u wilt voorspellen? 
  • Model:hoe is het algoritme opgebouwd en gewogen? 
  • Interactie:hoe beïnvloeden de vragen, aannames en aanwijzingen van mensen het resultaat? 

"Het is cruciaal om deze drie niveaus te begrijpen als je AI wilt gebruiken als een serieussupport ", zegt Helene. Ze benadrukt dat mensen nog steeds een aanzienlijke invloed kunnen uitoefenen op het systeem, zelfs onbedoeld. Dit kan variëren van onnauwkeurige vragen tot onbewuste aannames over hoe een 'goede kandidaat' eruitziet. 

Louise wijst er ook op dat sommige organisaties het belang van de validiteit van gegevens onderschatten. "Als je een AI voedt met gegevens die geen voorspellende waarde hebben met betrekking tot performance, zal de output natuurlijk misleidend zijn. Het is niet de technologie die faalt, maar onze aannames", zegt ze. 

Structuur als tegenwicht voor intuïtie 

Hoewel AI vooroordelen kan hebben, kan de technologie ook helpen om consistentere en gestructureerdere evaluaties te maken. 

Wanneer grote hoeveelheden informatie met elkaar moeten worden verbonden – testresultaten, casestudy's, interviewnotities en functie-eisen – kan AI helpen om de focus te behouden en ervoor te zorgen dat alle kandidaten op basis van dezelfde parameters worden beoordeeld. Volgens Louise is dit waar AI een duidelijk verschil kan maken. 

"Onderzoek toont aan dat structuur een van de meest effectieve manieren is om vooringenomenheid te minimaliseren", zegt Helene. "AI kan helpen om die structuur te behouden, zodat beoordelingen niet afwijken naarmate de complexiteit toeneemt." 

Helene voegt toe dat AI kan fungeren als een extra perspectief dat onze eigen aannames ter discussie stelt. Niet als definitieve beoordelaar, maar als support kan aangeven wanneer iets opnieuw moet worden overwogen. "Het kan ons eraan herinneren dat we misschien een beslissing nemen die meer op chemie dan op competenties is gebaseerd", zegt ze. Deze structuur is echter ook afhankelijk van organisaties die een duidelijk omschreven recruitment hanteren. 

Als het proces al ongeorganiseerd is of gebaseerd op intuïtie, wordt AI gewoon een extra element om mee om te gaan. Technologie lost geen problemen op, maar legt ze bloot. 

De ervaring van de kandidaat: eerlijkheid of afstandelijkheid? 

Hoewel AI kan leiden tot meer structuur, creëert het ook nieuwe dilemma's in de interactie tussen kandidaat en organisatie. Zowel Helene als Louise benadrukken dat kandidaten verschillend reageren op de technologie. Sommigen ervaren AI-gebaseerde processen als eerlijker, omdat de beoordeling meer op inhoud dan op uiterlijk is gericht. Anderen missen de menselijke interactie en worden sceptisch over systemen die ze niet kunnen doorgronden. 

"Er is een ethische verantwoordelijkheid om transparant te zijn. Als je niet kunt uitleggen waarom je AI gebruikt en wat er met de gegevens gebeurt, kan dat onzekerheid bij kandidaten veroorzaken", zegt Louise. Ethiek gaat dus niet alleen over gegevensbestanden en algoritmen, maar ook over communicatie en de ervaring van de kandidaat. 

Daarnaast staat een fundamentele visie op de menselijke aard op het spel. Kandidaten beoordelen organisaties grotendeels op basis van hoe ze zich gezien en gerespecteerd voelen. Als AI als een belemmering wordt gezien, kan dit zowel het imago van de werkgever als het aantrekken van talent schaden. 

Van zwarte doos naar transparantie 

Veel leidinggevenden vinden AI ondoorzichtig. Helene raadt aan om dezelfde kritische vragen te stellen die je ook bij andere recruitment zou stellen: 

  • Op welke kennis is het gebaseerd? 
  • Welke gegevens zijn opgenomen? 
  • Welke beperkingen heeft het model? 
  • Hoe wordt eerlijkheid gewaarborgd? 

"Je moet kunnen uitleggen waarop het model zijn beoordelingen baseert, anders kun je er zelf niet achter staan", zegt ze. 

Louise legt uit dat de werking van openbaar beschikbare grote taalmodellen vaak moeilijk volledig te begrijpen is, terwijl meer specifiek gedefinieerde AI-oplossingen doorgaans meer inzicht bieden in de onderliggende gegevens. Dit maakt het gemakkelijker om te beoordelen of de technologie geschikt is support het doel support deze bedoeld is. 

Klaar om AI te combineren met menselijk oordeel?

Competenties veranderen, maar de basis blijft hetzelfde 

Hoewel AI nieuwe overwegingen vereist, betekent dit niet dat HR-professionals en leidinggevenden helemaal opnieuw moeten beginnen. Beiden wijzen erop dat veel van de belangrijkste competenties al aanwezig zijn. 

Het vermogen om de kwaliteit van gegevens te beoordelen, te begrijpen wat performance op het werk voorspelt en gestructureerde processen te handhaven, blijft cruciaal. "We moeten de beoordelingstaak niet alleen aan technologie overlaten. We moeten onze expertise gebruiken om ervoor te zorgen dat technologie correct wordt gebruikt", zegt Louise. 

Helene voegt hieraan toe dat het nog belangrijker wordt om ons bewust te zijn van onze eigen vooroordelen, omdat mensen nog steeds invloed uitoefenen op het systeem door middel van de vragen en instructies die ze geven. "We maken nog steeds deel uit van de vergelijking. Die verantwoordelijkheid kan niet worden uitbesteed." 

De strategische beslissing: waar is AI zinvol?

Als AI op een verantwoorde manier moet worden gebruikt, moet het een bewuste keuze zijn – geen snelle manier om tijd te besparen. Organisaties moeten overwegen waar de technologie echt waarde creëert en waar menselijk contact onmisbaar is. 

"AI mag niet omwille van zichzelf worden gebruikt", zegt Louise. "Het moet worden gebruikt waar het het proces consistenter en eerlijker maakt – en niet in situaties waarin menselijke relaties het belangrijkst zijn." 

Helene sluit af met een opmerking over transparantie: "Als we kandidaten niet kunnen uitleggen waarom we AI gebruiken en hoe dit het proces versterkt, kan dat een teken zijn dat we het menselijke aspect uit het oog zijn verloren. Eerlijkheid heeft zowel met data als met dialoog te maken." 

Zoals beiden benadrukken, is AI slechts een hulpmiddel – geen vervanging voor gezond verstand. Hoewel de technologie zich snel ontwikkelt, zijn het nog steeds mensen die de koers bepalen. Eerlijkheid ontstaat alleen wanneer we durven om data, gezond verstand en ethisch bewustzijn te combineren. 

👉Bekijk hoe Assessio op verantwoorde wijze gebruikmaakt van AI – Boek een demo