KI in der Personalbeschaffung: Wenn Fairness Technologie erfordert – und menschliches Urteilsvermögen 

Assessio Teamzusammenarbeit in einer modernen Büroumgebung zur Talentbewertung und Mitarbeiterentwicklung.

KI verspricht mehr Objektivität bei der Personalauswahl, kann aber auch versteckte Vorurteile verstärken. Zwei Experten erklären, wie man Technologie, Ethik und menschliches Urteilsvermögen kombinieren kann, um fairere Entscheidungen zu treffen.

Von Sofie Brogaard Schmidt, Redakteurin, DANSK HR

Helene Hoppe Revald, Leiterin der Abteilung Psychometrie bei Assessio und ausgebildete Psychologin, leitet die Entwicklung und Validierung von Assessment-Tools in der gesamten nordischen Region. 

Louise Monnerup, Lösungsarchitektin und zugelassene Psychologin bei Assessio, fungiert als Bindeglied zwischen der psychometrischen Arbeit und den Organisationen, die die Tools in der Praxis einsetzen.

KI spielt eine immer wichtigere Rolle in Rekrutierungsprozessen, und für viele Unternehmen weckt diese Technologie sowohl Hoffnungen als auch Bedenken. Einerseits gibt es Erwartungen hinsichtlich mehr Struktur und weniger Bauchgefühl. Andererseits besteht die Befürchtung, dass neue Formen der Voreingenommenheit und nicht nachvollziehbare Entscheidungen entstehen könnten.

Genau dieses Gleichgewicht ist es, mit dem Helene Hoppe Revald und Louise Monnerup täglich arbeiten. Helene ist Leiterin der Abteilung Psychometrie bei Assessio und ausgebildete Psychologin. Sie leitet die Entwicklung und Validierung von Assessment-Tools in der gesamten nordischen Region. Louise ist Solution Architect und zugelassene Psychologin bei Assessio und fungiert als Bindeglied zwischen der psychometrischen Arbeit und den Organisationen, die die Tools in der Praxis einsetzen.

Voreingenommenheit verschwindet nicht – sie verändert lediglich ihre Form. 

Wenn KI Teil des Einstellungsprozesses wird, stellt sich schnell die Frage: Kann Technologie uns dabei helfen, die Vorurteile zu vermeiden, die Menschen typischerweise in Bewertungen einfließen lassen? Sowohl Helene Hoppe Revald als auch Louise Monnerup weisen darauf hin, dass Vorurteile nicht verschwinden – sie nehmen lediglich andere Formen an. Sie erklären, dass unsere menschlichen Vorurteile für uns selbst oft unsichtbar sind. Wir neigen dazu, bestimmte Arten von Menschen zu bevorzugen, lesen Bedeutungen in einem Blick, einem Hobby oder einem Karriereweg hinein – ohne uns dessen bewusst zu sein. KI lernt jedoch aus historischen Daten, und wenn diese Daten Spuren vergangener Präferenzen enthalten, wird das Ungleichgewicht mit größerer Wirkung reproduziert. Das bedeutet, dass KI genau die Muster verstärken kann, die Unternehmen zu beseitigen versuchen. 

Ein wichtiger Unterschied besteht darin, dass menschliche Vorurteile variieren. Wir können durch unsere Stimmung, den Kontext, unser Energieniveau oder subtile chemische Prozesse beeinflusst werden. Technologische Vorurteile sind dagegen stabiler. „KI ist weniger unbeständig als Menschen. Aber sobald sie ein Vorurteil gelernt hat, wiederholt sie dieselbe Bewertung immer wieder“, sagt Louise. Dadurch sind die Folgen größer und systematischer. 

Helene hebt eine weitere Herausforderung hervor: Die Fähigkeit der KI, Muster zu erkennen, die auf der Grundlage von Daten logisch erscheinen mögen, aber nicht unbedingt eine echte Relevanz für die Arbeitsleistung haben. „Die Technologie kann Muster finden, an die wir als Menschen niemals denken würden – und die wir daher möglicherweise nicht erkennen“, sagt sie. Dies unterstreicht die Notwendigkeit kritischer Fachkompetenz, insbesondere da Unternehmen beginnen, Teile des Bewertungsprozesses an Algorithmen auszulagern. 

Die Forschung hinter verantwortungsbewusster KI im Personalwesen – Laden Sie den Bericht herunter

Drei Orte, an denen Vorurteile entstehen

In ihrer Arbeit stellen sie fest, dass Vorurteile in der Regel an drei Stellen auftreten: 

  • Daten:Sind die Informationen relevant und gültig – und spiegeln sie wirklich das wider, was Sie vorhersagen möchten? 
  • Modell:Wie ist der Algorithmus aufgebaut und gewichtet? 
  • Interaktion:Wie beeinflussen die Fragen, Annahmen und Aufforderungen der Menschen das Ergebnis? 

„Das Verständnis dieser drei Ebenen ist entscheidend, wenn man KI als ernstzunehmendessupport einsetzen möchte“, sagt Helene. Sie betont, dass Menschen das System nach wie vor erheblich beeinflussen können, auch wenn dies unbeabsichtigt geschieht. Dies kann von ungenauen Fragen bis hin zu unbewussten Annahmen darüber reichen, wie ein „guter Kandidat“ aussieht. 

Louise weist auch darauf hin, dass manche Unternehmen die Bedeutung der Datenvalidität unterschätzen. „Wenn man eine KI mit Daten füttert, die keine Vorhersagekraft in Bezug auf die Arbeitsleistung haben, ist das Ergebnis natürlich irreführend. Es ist nicht die Technologie, die versagt – es sind unsere Annahmen“, sagt sie. 

Struktur als Gegengewicht zum Bauchgefühl 

Obwohl KI Vorurteile mit sich bringen kann, kann die Technologie auch dazu beitragen, konsistentere und strukturiertere Bewertungen zu erstellen. 

Wenn große Mengen an Informationen miteinander verknüpft werden müssen – Testergebnisse, Fallstudien, Interviewnotizen und Stellenanforderungen –, kann KI dabei helfen, den Fokus zu behalten und sicherzustellen, dass alle Kandidaten nach denselben Parametern bewertet werden. Laut Louise kann KI hier einen deutlichen Unterschied machen. 

„Untersuchungen zeigen, dass Struktur eine der wirksamsten Methoden ist, um Verzerrungen zu minimieren“, sagt Helene. „KI kann dabei helfen, diese Struktur aufrechtzuerhalten, sodass Bewertungen auch bei zunehmender Komplexität nicht aus dem Ruder laufen.“ 

Helene fügt hinzu, dass KI als zusätzliche Perspektive fungieren kann, die unsere eigenen Annahmen hinterfragt. Nicht als endgültiger Richter, sondern als support darauf hinweisen kann, wann etwas überdacht werden sollte. „Sie kann uns daran erinnern, dass wir möglicherweise eine Entscheidung treffen, die eher auf Chemie als auf Kompetenzen basiert“, sagt sie. Diese Struktur hängt jedoch auch davon ab, dass Unternehmen einen klar definierten Einstellungsprozess beibehalten. 

Wenn der Prozess bereits unorganisiert ist oder auf Bauchgefühl basiert, wird KI einfach zu einem weiteren Element, das es zu steuern gilt. Technologie löst keine Probleme – sie deckt sie auf. 

Die Kandidatenerfahrung: Fairness oder Distanz? 

KI kann zwar zu mehr Struktur führen, schafft aber auch neue Dilemmata in der Interaktion zwischen Bewerber und Unternehmen. Sowohl Helene als auch Louise betonen, dass Bewerber unterschiedlich auf die Technologie reagieren. Einige empfinden KI-basierte Prozesse als fairer, da die Bewertung mehr auf den Inhalt als auf das Erscheinungsbild ausgerichtet ist. Andere vermissen die menschliche Interaktion und stehen Systemen, die sie nicht durchschauen können, skeptisch gegenüber. 

„Es besteht eine ethische Verantwortung, transparent zu sein. Wenn Sie nicht erklären können, warum Sie KI einsetzen und was mit den Daten geschieht, kann dies zu Unsicherheit bei den Bewerbern führen“, sagt Louise. Bei der Ethik geht es also nicht nur um Datengrundlagen und Algorithmen, sondern auch um Kommunikation und die Erfahrung der Bewerber. 

Darüber hinaus steht eine grundlegende Sichtweise der menschlichen Natur auf dem Spiel. Bewerber beurteilen Unternehmen weitgehend danach, wie sehr sie sich wahrgenommen und respektiert fühlen. Wenn KI als Hindernis wahrgenommen wird, kann dies sowohl dem Employer Branding als auch der Gewinnung von Talenten schaden. 

Von der Black Box zur Transparenz 

Viele Führungskräfte empfinden KI als undurchsichtig. Helene empfiehlt hier, dieselben kritischen Fragen zu stellen, die Sie auch bei jeder anderen Rekrutierungsmethode stellen würden: 

  • Auf welchem Wissen basiert es? 
  • Welche Daten sind enthalten? 
  • Welche Einschränkungen hat das Modell? 
  • Wie wird Fairness gewährleistet? 

„Man muss erklären können, worauf das Modell seine Bewertungen stützt – sonst kann man selbst nicht dahinterstehen“, sagt sie. 

Louise führt weiter aus, dass die Funktionsweise öffentlich zugänglicher großer Sprachmodelle oft schwer vollständig zu verstehen ist, während enger definierte KI-Lösungen in der Regel einen besseren Einblick in die zugrunde liegenden Daten bieten. Dadurch lässt sich leichter beurteilen, ob die Technologie support den vorgesehenen Zweck support. 

Sind Sie bereit, KI mit menschlichem Urteilsvermögen zu kombinieren?

Die Kompetenzen ändern sich, aber die Grundlage bleibt bestehen. 

Obwohl KI neue Überlegungen erfordert, bedeutet dies nicht, dass Personalverantwortliche und Führungskräfte bei Null anfangen müssen. Beide weisen darauf hin, dass viele der wichtigsten Kompetenzen bereits vorhanden sind. 

Die Fähigkeit, die Datenqualität zu beurteilen, zu verstehen, was die Arbeitsleistung vorhersagt, und strukturierte Prozesse aufrechtzuerhalten, bleibt entscheidend. „Wir sollten die Bewertung nicht allein der Technologie überlassen. Wir müssen unser Fachwissen einsetzen, um sicherzustellen, dass die Technologie richtig eingesetzt wird“, sagt Louise. 

Helene fügt hinzu, dass das Bewusstsein für unsere eigenen Vorurteile noch wichtiger wird, da Menschen das System nach wie vor durch die von ihnen gestellten Fragen und gegebenen Anweisungen beeinflussen. „Wir sind immer noch Teil der Gleichung. Diese Verantwortung kann nicht ausgelagert werden.“ 

Die strategische Entscheidung: Wo ist KI sinnvoll?

Wenn KI verantwortungsbewusst eingesetzt werden soll, muss dies eine bewusste Entscheidung sein – und kein schneller Weg, um Zeit zu sparen. Unternehmen sollten sich überlegen, wo die Technologie wirklich einen Mehrwert schafft und wo menschlicher Kontakt unverzichtbar ist. 

„KI sollte nicht um ihrer selbst willen eingesetzt werden“, sagt Louise. „Sie sollte dort eingesetzt werden, wo sie den Prozess konsistenter und fairer macht – und nicht in Situationen, in denen menschliche Beziehungen am wichtigsten sind.“ 

Helene schließt mit einem Hinweis zur Transparenz: „Wenn wir den Kandidaten nicht erklären können, warum wir KI einsetzen und wie sie den Prozess verbessert, könnte das ein Zeichen dafür sein, dass wir den menschlichen Faktor aus den Augen verloren haben. Bei Fairness geht es sowohl um Daten als auch um Dialog.“ 

Wie beide betonen, ist KI nur ein Werkzeug – kein Ersatz für das eigene Urteilsvermögen. Auch wenn sich die Technologie rasant weiterentwickelt, sind es nach wie vor Menschen, die die Richtung vorgeben. Fairness entsteht nur, wenn wir es wagen, Daten, Urteilsvermögen und ethisches Bewusstsein miteinander zu verbinden. 

👉Sehen Sie, wie Assessio KI verantwortungsbewusst einsetzt – Buchen Sie eine Demo