Spring til hovedindhold

Download den datadrevne guide til implementering af kunstig intelligens, styring og tillid inden for HR.

Indførelsen af kunstig intelligens inden for HR tager fart, men styringen følger ikke med. Denne rapport, der bygger på en undersøgelse blandt HR-ledere i hele Europa samt førende brancheundersøgelser, undersøger kløften mellem ambitioner og virkelighed – og kortlægger, hvad der skal til for at udligne den på en ansvarlig måde.

Indhold

En detaljeret analyse af, hvor HR-organisationer står med hensyn til AI-modenhed, styring og tillid, samt praktisk vejledning til HR-ledere, forretningspartnere og L&D-teams om, hvad der skal gennemgås, hvad der skal rettes op på, og hvordan man forbereder sig på EU's AI-lov.

Vigtige indsigter

Dataene viser, at branchen i stigende grad tager kunstig intelligens i brug, uden at den nødvendige modenhed er til stede. Her er tre konklusioner, som alle HR-ledere bør kende til.

96%

af medarbejderne har allerede personlig adgang til generative AI-værktøjer

Alligevel siger 47 % af HR-lederne, at deres organisation går for langsomt frem med implementeringen af kunstig intelligens.

83%

En række HR-funktioner befinder sig stadig på de laveste niveauer af AI-modenhed

At gå videre end isolerede opgaver kræver mere end blot adgang til AI-værktøjer. Det kræver styring og rammer, der gør det muligt at integrere dem i beslutninger, der rent faktisk har betydning.

61%

Mange organisationer mangler klart definerede retningslinjer for kunstig intelligens inden for HR

Uden fælles retningslinjer udvikler anvendelsen af kunstig intelligens sig hurtigere end ansvarligheden. De organisationer, der forvalter kunstig intelligens på en god måde, har processer og medarbejdere, der holder den i skak.

Baseret på forskning,
ikke på antagelser

Rapporten »The Maturity Gap« bygger på en undersøgelse fra 2026 blandt HR-ledere og personaleansvarlige i hele Europa samt en gennemgang af nyere forskning fra McKinsey, Gartner, Josh Bersin Company og Pew Research Center.

Til HR-ledere, der ønsker at komme videre

Uanset om du er i gang med at opbygge en styringsramme eller gennemgå værktøjer, kan du her finde de praktiske trin, der skal til for at komme videre med tillid.

”Når fordomme bliver indbygget i et system, der kører i stor skala, viser det sig ikke som støj. Det viser sig som et mønster, og et mønster er meget sværere at få øje på og rette op på end en enkelt fejl.”

— Mikkel Lundø, CEO, Assessio Group

Hent dit gratis eksemplar og vær med i diskussionen

Ofte stillede spørgsmål

Der er en stor forskel på, hvor hurtigt organisationer indfører kunstig intelligens (AI) i HR-afdelingen, og hvor langsomt de får styr på brugen af den. Vores undersøgelse viser, at 74 % af HR-lederne forventer, at AI vil forbedre deres arbejdsmiljø – men 61 % mangler klart definerede retningslinjer for AI, og 51 % har slet ingen styringsfunktion på området. Ambitionen er der. Men den nødvendige infrastruktur mangler i vid udstrækning.

AI-modenhed er den grad, i hvilken en organisation anvender AI effektivt, konsekvent og under passende tilsyn. De fleste HR-afdelinger befinder sig på det laveste niveau, hvor de kun bruger AI til isolerede opgaver i stedet for at integrere den i beslutninger, der har reel indflydelse på resultaterne. Modenhed er vigtig, for uden den pådrager organisationer sig risici uden at opnå fordelene.

Start med tre spørgsmål: Forudsiger jeres AI performance faktiske performance? Ville den samme kandidat få et ensartet resultat over tid? Er indsigterne reelt relevante for jobbet? Ud over selve værktøjet bør I vurdere, om jeres organisation har klart definerede retningslinjer for AI, en udpeget person med beføjelse til at gennemgå AI-baserede beslutninger samt en proces til overvågning af partiskhed i praksis.

EU's AI-lov fastsætter bindende forpligtelser for organisationer, der anvender kunstig intelligens i forbindelse med rekruttering, udvælgelse og performance . Det er afgørende, at disse forpligtelser ikke kan overføres til din leverandør. De omfatter uddannet tilsynspersonale, assessments, underretning af arbejdstagere og registrering af beslutninger. Kravene om høring af arbejdstagere kan allerede håndhæves, mens de fulde forpligtelser vedrørende højrisikoområder træder i kraft i august 2026.

I praksis betyder det, at der skal være en udpeget person med beføjelser og tid til at gennemgå og tilsidesætte AI-baserede beslutninger, retningslinjer, som medarbejderne rent faktisk følger, samt værktøjer, der løbende overvåges for partiskhed – ikke kun ved implementeringen. Vores data viser, at organisationer med en egentlig styringsinfrastruktur er mere end dobbelt så tilbøjelige til at tilbyde formel AI-uddannelse og betydeligt mere tilbøjelige til aktivt at overvåge for partiskhed.

Tre ting: validitet (forudsiger værktøjet rent faktisk performance?), konsistens (ville den samme kandidat få det samme resultat på en anden dag?) og forskelle i effekt (fungerer værktøjet forskelligt på tværs af demografiske grupper?). De fleste HR-AI-værktøjer er ikke udviklet med denne grad af stringens. Rapporten forklarer, hvad man skal kigge efter, og hvad man skal spørge sin leverandør om.

Den beskriver i et letforståeligt sprog, hvad artikel 26 kræver af arbejdsgivere, forklarer forskellen mellem udbyderens og arbejdsgiverens ansvar og giver HR-ledere et klart billede af, hvor de fleste organisationer i øjeblikket halter bagefter. Den indeholder desuden praktiske anbefalinger, der er skræddersyet til CHRO’er, HR-forretningspartnere og L&D-ledere, så I ved præcis, hvor I skal sætte ind.

HR-ledere, HR-forretningspartnere, L&D-teams og eksperter i personaleanalyse – især dem, der bruger eller planlægger at bruge kunstig intelligens inden for rekruttering, performance eller medarbejderudvikling. Det sidste afsnit indeholder rolle-specifik vejledning, og rapporten er opbygget på en sådan måde, at læsere, der går direkte til anbefalingerne, stadig får alt det, de har brug for for at kunne handle.

Luk menu