AI i rekruttering: når rettferdighet krever teknologi – og menneskelig dømmekraft 

Assessio-teamsamarbeid i et moderne kontormiljø for talentvurdering og medarbeiderutvikling.

AI lover større objektivitet i rekruttering, men den kan også forsterke skjulte skjevheter. To eksperter forklarer hvordan man kan kombinere teknologi, etikk og menneskelig dømmekraft i jakten på mer rettferdige beslutninger.

Av Sofie Brogaard Schmidt, Redaktør, DANSK HR

Helene Hoppe Revald, leder for psykometri hos Assessio og utdannet psykolog, leder utviklingen og valideringen av vurderingsverktøy i hele Norden. 

Louise Monnerup, løsningsarkitekt og autorisert psykolog hos Assessio, fungerer som bindeleddet mellom det psykometriske arbeidet og organisasjonene som bruker verktøyene i praksis .

AI spiller en stadig mer fremtredende rolle i rekrutteringsprosesser, og for mange organisasjoner vekker teknologien både håp og bekymring. På den ene siden er det forventninger om mer struktur og færre magefølelser. På den andre siden er det frykt for nye former for skjevhet og beslutninger som ikke kan forklares.

Denne balansen er nettopp det Helene Hoppe Revald og Louise Monnerup jobber med hver dag. Helene er leder for psykometri hos Assessio og utdannet psykolog, og leder utviklingen og valideringen av vurderingsverktøy i hele Norden. Louise er løsningsarkitekt og autorisert psykolog hos Assessio, og fungerer som bindeleddet mellom det psykometriske arbeidet og organisasjonene som bruker verktøyene i praksis.

Skjevhet forsvinner ikke – den endrer form 

Når AI blir en del av rekrutteringsprosessen, oppstår raskt spørsmålet: kan teknologi hjelpe oss med å unngå skjevhetene som mennesker vanligvis bringer med seg i evalueringer? Både Helene Hoppe Revald og Louise Monnerup påpeker at skjevheter ikke forsvinner – de tar bare andre former. De forklarer at våre menneskelige skjevheter ofte er usynlige for oss selv. Vi har en tendens til å foretrekke visse typer mennesker, lese mening i et blikk, en hobby eller en karrierevei – alt uten å innse det. Men AI lærer av historiske data, og hvis disse dataene bærer spor av tidligere preferanser, reproduseres ubalansen med større effekt. Dette betyr at AI kan forsterke de samme mønstrene organisasjoner prøver å eliminere. 

En viktig forskjell er at menneskelig bias varierer. Vi kan bli påvirket av humøret vårt, konteksten, energinivået vårt eller subtil kjemi. Teknologisk bias, derimot, er mer stabil. «AI er mindre støyende enn mennesker. Men når den først har lært en bias, gjentar den den samme vurderingen om og om igjen», sier Louise. Dette gjør konsekvensene større og mer systematiske. 

Helene fremhever en annen utfordring: AIs evne til å identifisere mønstre som kan virke logiske basert på data, men som ikke nødvendigvis har noen reell relevans for jobbprestasjoner. «Teknologi kan finne mønstre som vi som mennesker aldri ville tenke på – og derfor kanskje ikke oppdager», sier hun. Dette understreker behovet for kritisk faglig ekspertise, spesielt ettersom organisasjoner begynner å outsource deler av vurderingsprosessen til algoritmer. 

Forskningen bak ansvarlig AI i HR – Last ned rapporten

Tre steder hvor skjevheter oppstår

I arbeidet sitt ser de at skjevhet vanligvis oppstår på tre punkter: 

  • Data: er informasjonen relevant og gyldig – og gjenspeiler den virkelig det du ønsker å forutsi? 
  • Modell: hvordan er algoritmen konstruert og vektet? 
  • Interaksjon: hvordan påvirker folks spørsmål, antagelser og påstander resultatet? 

«Det er avgjørende å forstå disse tre nivåene hvis du vil bruke AI som en seriøs beslutning-» support verktøy», sier Helene. Hun understreker at mennesker fortsatt kan påvirke systemet betydelig, selv utilsiktet. Dette kan variere fra upresise spørsmål til ubevisste antagelser om hvordan en «god kandidat» ser ut. 

Louise påpeker også at noen organisasjoner undervurderer viktigheten av datavaliditet. «Hvis du mater en AI med data som ikke har noen prediktiv kraft i forhold til jobbytelse, vil resultatet naturligvis være misvisende. Det er ikke teknologien som feiler – det er våre antagelser», sier hun. 

Struktur som motvekt til magefølelsen 

Selv om AI kan føre til skjevheter, kan teknologien også bidra til å skape mer konsistente og strukturerte evalueringer. 

Når store mengder informasjon må kobles sammen – testresultater, caseøvelser, intervjunotater og jobbkrav – kan AI bidra til å opprettholde fokus og sikre at alle kandidater vurderes ut fra de samme parameterne. Ifølge Louise er det her AI kan gjøre en klar forskjell. 

«Forskning viser at struktur er en av de mest effektive måtene å minimere skjevhet på», sier Helene. «KI kan bidra til å opprettholde denne strukturen, slik at vurderingene ikke forskyves etter hvert som kompleksiteten øker.» 

Helene legger til at AI kan fungere som et tilleggsperspektiv som utfordrer våre egne antagelser. Ikke som den endelige dommeren, men som support som kan indikere når noe bør vurderes på nytt. «Det kan minne oss på at vi kanskje er på vei mot en beslutning basert mer på kjemi enn på kompetanse», sier hun. Denne strukturen er imidlertid også avhengig av at organisasjoner opprettholder en veldefinert rekrutteringsprosess. 

Hvis prosessen allerede er uorganisert eller basert på magefølelse, vil AI rett og slett bli enda et element å navigere i. Teknologi løser ikke problemer – den avslører dem. 

Kandidatopplevelsen: rettferdighet eller avstand? 

Selv om KI kan føre til mer struktur, skaper det også nye dilemmaer i samspillet mellom kandidat og organisasjon. Både Helene og Louise understreker at kandidater reagerer ulikt på teknologien. Noen opplever KI-baserte prosesser som mer rettferdige, fordi vurderingen fokuserer mer på innhold enn på utseende. Andre overser den menneskelige samhandlingen og blir skeptiske til systemer de ikke kan se inn i. 

«Det ligger et etisk ansvar i å være transparent. Hvis man ikke kan forklare hvorfor man bruker AI og hva som skjer med dataene, kan det skape usikkerhet blant kandidatene», sier Louise. Etikk handler derfor ikke bare om datagrunnlag og algoritmer, men også om kommunikasjon og kandidatopplevelsen. 

I tillegg står et grunnleggende menneskesyn på spill. Kandidater vurderer i stor grad organisasjoner basert på hvor sett og respektert de føler seg. Hvis AI oppfattes som en barriere, kan det skade både arbeidsgivermerkevarebygging og talenttiltrekning. 

Fra svart boks til åpenhet 

Mange ledere opplever AI som ugjennomsiktig. Her anbefaler Helene å stille de samme kritiske spørsmålene som du ville stilt om enhver annen rekrutteringsmetod: 

  • Hvilken kunnskap er det basert på? 
  • Hvilke data er inkludert? 
  • Hvilke begrensninger har modellen? 
  • Hvordan sikres rettferdighet? 

«Du må kunne forklare hva modellen baserer vurderingene sine på – ellers kan du ikke stå bak den selv», sier hun. 

Louise utdyper at det ofte er vanskelig å forstå hvordan offentlig tilgjengelige store språkmodeller fungerer fullt ut, mens snevrere definerte AI-løsninger vanligvis gir større innsikt i de underliggende dataene. Dette gjør det enklere å vurdere om teknologien passer til formålet den er ment å bruke. support . 

Klar til å kombinere AI med menneskelig dømmekraft?

Kompetanser endrer seg, men grunnlaget består 

Selv om AI krever nye hensyn, betyr det ikke at HR-medarbeidere og ledere må starte helt på nytt. Begge påpeker at mange av de viktigste kompetansene allerede er på plass. 

Evnen til å vurdere datakvalitet, forstå hva som forutsier jobbprestasjon og opprettholde strukturerte prosesser er fortsatt avgjørende. «Vi bør ikke overlate vurderingsoppgaven til teknologien alene. Vi må bruke vår ekspertise til å sikre at teknologien brukes riktig», sier Louise. 

Helene legger til at det blir enda viktigere å være bevisst på våre egne skjevheter, fordi mennesker fortsatt påvirker systemet gjennom spørsmålene og instruksjonene de gir. «Vi er fortsatt en del av ligningen. Det ansvaret kan ikke outsources.» 

Den strategiske avgjørelsen: hvor gir AI mening?

Hvis AI skal brukes ansvarlig, må det være et bevisst valg – ikke en rask måte å spare tid på. Organisasjoner bør vurdere hvor teknologien virkelig skaper verdi og hvor menneskelig kontakt er uunnværlig. 

«KI bør ikke brukes for sin egen skyld», sier Louise. «Den bør brukes der den gjør prosessen mer konsekvent og rettferdig – og ikke i situasjoner der et menneskelig forhold er det som betyr mest.» 

Helene avslutter med et poeng om åpenhet: «Hvis vi ikke kan forklare kandidatene hvorfor vi bruker kunstig intelligens og hvordan det styrker prosessen, kan det være et tegn på at vi har mistet det menneskelige elementet av syne. Rettferdighet handler om både data og dialog.» 

Som begge understreker, er AI bare et verktøy – ikke en erstatning for dømmekraft. Selv om teknologien utvikler seg raskt, er det fortsatt mennesker som setter retningen. Rettferdighet oppstår bare når vi tør å kombinere data, dømmekraft og etisk bevissthet. 

👉 Se hvordan Assessio bruker AI på en ansvarlig måte – Bestill en demonstrasjon