AI i rekrytering: när rättvisa kräver teknik – och mänskligt omdöme 

Assessio teamsamarbete i en modern kontorsmiljö för talangutvärdering och medarbetarutveckling.

AI lovar större objektivitet vid rekrytering, men kan också förstärka dolda fördomar. Två experter förklarar hur man kan kombinera teknik, etik och mänskligt omdöme för att fatta rättvisare beslut.

Av Sofie Brogaard Schmidt, redaktör, DANSK HR

Helene Hoppe Revald, chef för psykometri på Assessio och utbildad psykolog, leder utvecklingen och valideringen av bedömningsverktyg i hela Norden. 

Louise Monnerup, lösningsarkitekt och legitimerad psykolog på Assessio, fungerar som länk mellan det psykometriska arbetet och de organisationer som använder verktygen i praktiken.

AI spelar en alltmer framträdande roll i rekryteringsprocesser, och för många organisationer väcker tekniken både förhoppningar och oro. Å ena sidan finns förväntningar på mer struktur och mindre magkänsla. Å andra sidan finns en rädsla för nya former av partiskhet och beslut som inte kan förklaras.

Det är just denna balans som Helene Hoppe Revald och Louise Monnerup arbetar med varje dag. Helene är chef för psykometri på Assessio och utbildad psykolog. Hon leder utvecklingen och valideringen av bedömningsverktyg i hela Norden. Louise är lösningsarkitekt och auktoriserad psykolog på Assessio och fungerar som länk mellan det psykometriska arbetet och de organisationer som använder verktygen i praktiken.

Fördomar försvinner inte – de byter bara form 

När AI blir en del av rekryteringsprocessen uppstår snabbt frågan: kan tekniken hjälpa oss att undvika de fördomar som människor vanligtvis har i sina bedömningar? Både Helene Hoppe Revald och Louise Monnerup påpekar att fördomar inte försvinner – de tar bara andra former. De förklarar att våra mänskliga fördomar ofta är osynliga för oss själva. Vi tenderar att föredra vissa typer av människor, tolka in betydelse i en blick, en hobby eller en karriärväg – allt utan att vi inser det. Men AI lär sig av historiska data, och om dessa data bär spår av tidigare preferenser, reproduceras obalansen med större effekt. Detta innebär att AI kan förstärka just de mönster som organisationer försöker eliminera. 

En viktig skillnad är att mänskliga fördomar varierar. Vi kan påverkas av vårt humör, sammanhanget, vår energinivå eller subtila kemi. Tekniska fördomar är däremot mer stabila. ”AI är mindre störande än människor. Men när den väl har lärt sig en fördom upprepar den samma bedömning om och om igen”, säger Louise. Detta gör konsekvenserna större och mer systematiska. 

Helene lyfter fram en annan utmaning: AI:s förmåga att identifiera mönster som kan verka logiska utifrån data, men som inte nödvändigtvis har någon verklig relevans för arbetsprestationen. ”Tekniken kan hitta mönster som vi människor aldrig skulle tänka på – och därför kanske inte upptäcker”, säger hon. Detta understryker behovet av kritisk professionell expertis, särskilt när organisationer börjar outsourca delar av utvärderingsprocessen till algoritmer. 

Forskningen bakom ansvarsfull AI inom HR – Ladda ner rapporten

Tre platser där fördomar uppstår

I sitt arbete ser de att fördomar vanligtvis uppstår i tre olika skeden: 

  • Data:Är informationen relevant och giltig – och återspeglar den verkligen det du vill förutsäga? 
  • Modell:hur är algoritmen uppbyggd och viktad? 
  • Interaktion:hur påverkar människors frågor, antaganden och uppmaningar resultatet? 

”Det är viktigt att förstå dessa tre nivåer om man vill använda AI som ett seriöstsupport ”, säger Helene. Hon betonar att människor fortfarande kan påverka systemet i betydande utsträckning, även om det är oavsiktligt. Det kan handla om allt från oprecisa frågor till omedvetna antaganden om hur en ”bra kandidat” ser ut. 

Louise påpekar också att vissa organisationer underskattar vikten av datagiltighet. ”Om man matar en AI med data som inte har någon prediktiv kraft i förhållande till arbetsprestanda, blir resultatet naturligtvis missvisande. Det är inte tekniken som misslyckas – det är våra antaganden”, säger hon. 

Struktur som motvikt till magkänslan 

Även om AI kan vara partisk, kan tekniken också bidra till att skapa mer konsekventa och strukturerade utvärderingar. 

När stora mängder information behöver sammanföras – testresultat, fallstudier, intervjunoter och jobbkrav – kan AI hjälpa till att behålla fokus och säkerställa att alla kandidater bedöms utifrån samma parametrar. Enligt Louise är det här AI kan göra en tydlig skillnad. 

”Forskning visar att struktur är ett av de mest effektiva sätten att minimera partiskhet”, säger Helene. ”AI kan hjälpa till att upprätthålla den strukturen, så att bedömningarna inte blir mer subjektiva när komplexiteten ökar.” 

Helene tillägger att AI kan fungera som ett ytterligare perspektiv som utmanar våra egna antaganden. Inte som den slutgiltiga domaren, utan som support kan indikera när något bör omprövas. ”Det kan påminna oss om att vi kanske är på väg mot ett beslut som baseras mer på kemi än på kompetens”, säger hon. Denna struktur är dock också beroende av att organisationerna har en väl definierad rekryteringsprocess. 

Om processen redan är oorganiserad eller baserad på magkänsla kommer AI bara att bli ytterligare ett element att navigera. Teknik löser inte problem – den blottlägger dem. 

Kandidatupplevelsen: rättvisa eller distans? 

AI kan visserligen leda till mer struktur, men det skapar också nya dilemman i interaktionen mellan kandidaten och organisationen. Både Helene och Louise betonar att kandidaterna reagerar olika på tekniken. Vissa upplever AI-baserade processer som mer rättvisa, eftersom bedömningen fokuserar mer på innehåll än på utseende. Andra saknar den mänskliga interaktionen och blir skeptiska till system som de inte kan se in i. 

”Det finns ett etiskt ansvar att vara transparent. Om du inte kan förklara varför du använder AI och vad som händer med data kan det skapa osäkerhet bland kandidaterna”, säger Louise. Etik handlar därför inte bara om datagrunder och algoritmer, utan också om kommunikation och kandidatupplevelsen. 

Dessutom står en grundläggande syn på mänsklig natur på spel. Kandidater bedömer i stor utsträckning organisationer utifrån hur sedda och respekterade de känner sig. Om AI uppfattas som ett hinder kan det skada både arbetsgivarvarumärket och förmågan att attrahera talanger. 

Från svart låda till öppenhet 

Många ledare upplever AI som otydligt. Här rekommenderar Helene att man ställer samma kritiska frågor som man skulle ställa om vilken annan rekryteringsmetod som helst: 

  • Vilken kunskap bygger den på? 
  • Vilka uppgifter ingår? 
  • Vilka begränsningar har modellen? 
  • Hur säkerställs rättvisa? 

”Man måste kunna förklara vad modellen baserar sina bedömningar på – annars kan man inte själv stå bakom den”, säger hon. 

Louise förklarar att det ofta är svårt att fullt ut förstå hur allmänt tillgängliga stora språkmodeller fungerar, medan mer snävt definierade AI-lösningar vanligtvis ger större insikt i de underliggande data. Detta gör det lättare att bedöma om tekniken passar det syfte den är avsedd att support. 

Är du redo att kombinera AI med mänskligt omdöme?

Kompetenserna förändras, men grunden förblir densamma 

Även om AI kräver nya överväganden betyder det inte att HR-personal och ledare måste börja om från början. Båda påpekar att många av de viktigaste kompetenser redan finns på plats. 

Förmågan att bedöma datakvalitet, förstå vad som förutsäger arbetsprestanda och upprätthålla strukturerade processer är fortfarande avgörande. ”Vi bör inte överlåta bedömningen enbart till tekniken. Vi måste använda vår expertis för att säkerställa att tekniken används på rätt sätt”, säger Louise. 

Helene tillägger att medvetenheten om våra egna fördomar blir ännu viktigare, eftersom människor fortfarande påverkar systemet genom de frågor och instruktioner de ger. ”Vi är fortfarande en del av ekvationen. Det ansvaret kan inte outsourcas.” 

Det strategiska beslutet: var är AI meningsfullt?

Om AI ska användas på ett ansvarsfullt sätt måste det vara ett medvetet val – inte ett snabbt sätt att spara tid. Organisationer bör överväga var tekniken verkligen skapar värde och var mänsklig kontakt är oumbärlig. 

”AI bör inte användas för sin egen skull”, säger Louise. ”Det bör användas där det gör processen mer konsekvent och rättvis – och inte i situationer där mänskliga relationer är det viktigaste.” 

Helene avslutar med en kommentar om transparens: ”Om vi inte kan förklara för kandidaterna varför vi använder AI och hur det stärker processen, kan det vara ett tecken på att vi har tappat bort det mänskliga elementet. Rättvisa handlar både om data och dialog.” 

Som båda betonar är AI bara ett verktyg – inte en ersättning för omdöme. Även om tekniken utvecklas snabbt är det fortfarande människor som anger riktningen. Rättvisa uppstår bara när vi vågar kombinera data, omdöme och etisk medvetenhet. 

👉Se hur Assessio använder AI på ett ansvarsfullt sätt – Boka en demo