Studie

Studie aus Mannheim: Warum KI in Bewerbungsprozessen Frauen benachteiligt

Der Einsatz von Chat-Robotern in den Personalabteilungen hat seine Tücken. Zum Beispiel bei Bewerbungen. Was ein Mannheimer Unternehmen zu einer aktuellen Studie sagt

Von 
Walter Serif
Lesedauer: 
Auch die Unternehmen setzen Chatbots vermehrt im Personalwesen ein – zum Beispiel bei Bewerbungen. © Hannes P. Albert

Mannheim. Natürlich ist es ein Märchen, dass Künstliche Intelligenz (KI) Entscheidungen rein rational trifft - und dabei anders als Menschen immer neutral bleibt. Für diese Erkenntnis braucht es kein Informatikstudium. Der Grund ist simpel: Die KI, die zum Beispiel auf großen Sprachmodellen wie ChatGPT oder Deepl basiert, wird von Menschen entwickelt und mit Texten trainiert, die Autorinnen und Autoren aus Fleisch und Blut geschrieben haben.

Die KI wird also mit deren Überzeugungen, Werten, Persönlichkeiten und Vorurteilen gefüttert. „Kein Wunder, dass diese Modelle auch Merkmale aufweisen, die man bisher nur Menschen zugeschrieben hat“, sagt Max Pellert, Experte für Data Science an der Universität Mannheim, die gemeinsam mit Gesis (Leibniz-Institut für Sozialwissenschaften) in Mannheim eine Studie erarbeitet hat.

Laut Mannheimer Studie übernehmen KI-Systeme Stereotype

„Wie offen ist eine Person? Wie gewissenhaft - oder wie neurotisch? Merkmale wie diese lassen sich in der Psychologie durch standardisierte Tests bestimmen und messen“, weiß Pellert. Diese „psychometrischen Tests“, die nach seinen Angaben seit Jahrzehnten erfolgreich bei Menschen angewendet werden, lassen sich demnach auch auf KI-Modelle übertragen.

„Wir können ähnlich wie bei Menschen KI-Modelle Fragebogen beantworten lassen und ihre Antworten vergleichen“, erklärt Pellerts Kollege Clemens Lechner vom Forschungsinstitut Gesis. Die Studienautoren haben auf dieser Basis „differenzierte Eigenschaftsprofile“ der Modelle erstellt. Die Forscher konnten dabei bestätigen, dass manche sprachbasierte KIs „genderspezifische Vorurteile“ reproduzieren.

Beispiel gefällig? „Wenn im ansonsten gleichen Text eines Fragebogens einmal eine männliche und einmal eine weibliche Person im Mittelpunkt steht, werden diese unterschiedlich bewertet“, sagt Lechner. Konkret: Handelt es sich um einen Mann, wird der Wert „Leistung“ stärker betont. Bei einer Frau dominieren dagegen Werte wie „Sicherheit“ und „Tradition“. Solche Stereotype führen dann - laut Studie - dazu, dass die KI-Maschinen häufig automatisch davon ausgehen, dass die leitende Ärzteschaft männlich und die Pflegekräfte weiblich sind. „Die Moralvorstellungen zeigen eher konservative Profile, und wir finden generell uniforme Vorstellungen von Geschlechterkonzeptionen, die als binär aufgefasst werden“, sagt Wissenschaftler Pellert.

 So sichern Unternehmen faire Bewerbungsprozesse trotz KI

Wenn die KI mit Daten gefüttert wird, übernimmt sie also auch die Vorurteile, die in diesen stecken. Das ist vor allem bei Bewerbungen problematisch, bei denen Sprachmodelle immer stärker eingesetzt werden. Das kann sich dann zum Beispiel für weibliche Bewerber und Kandidaten mit Migrationshintergrund negativ auswirken, wenn die KI bei der Analyse der früheren Bewerbungen feststellt, dass Frauen und Zuwanderer im Auswahlprozess eher aussortiert werden.

Wie verhindern aber die Unternehmen, die KI einsetzen, dass diese Vorurteile zu einer falschen Auswahl führen? Erst einmal dadurch, dass die Personaler den Auswahlprozess nicht der KI überlassen. „Daher ist es entscheidend, dass die KI den Recruiter oder die Personalentscheiderin nicht etwa ersetzen sollte, sondern am Ende diese die finale Auswahlentscheidung treffen“, sagt Anna Lüttgen, die beim Mannheimer Personaldienstleister Hays das Recruiting und die Fachkräftebetreuung leitet.

Dennoch bleibt es für den Personaler schwierig nachzuvollziehen, von welchen Kriterien sich die Sprachmodelle im Bewerbungsverfahren leiten lassen. Aber auch Lüttgen weiß, dass die Datenqualität leiden kann, wenn in die Informationen „bestimmte Werte und Moralvorstellungen“ einfließen. Auch die schiere Datenmenge spielt eine Rolle. „Es greifen viele Millionen Messpunkte, sogenannte Features, ineinander, um zu einem Gesamtergebnis zu kommen“, sagt die Expertin.

Mannheimer Studienautoren: Vorurteile der KI-Modelle könnten sich festigen

Gleichwohl betont Anna Lüttgen die Vorteile der KI. Durch sie können demnach Personaler und andere Entscheidungsträger lernen, welche Kompetenzen die Bewerber oder Mitarbeiter haben müssen, damit die Organisation im Betrieb besser wird. Lüttgen zählt weitere positive Effekte des Einsatzes von KI auf: mehr Geschwindigkeit und Flexibilität im Bewerbungsprozess sowie niedrigere Kosten. Das Hauptziel liegt aber auf der Hand: Die KI soll dabei helfen, dass die Betriebe den richtigen Bewerber für eine Position aussuchen können. Nach Lüttgens Worten lassen sich die Prozesse „deutlich optimieren“.

Das Grundproblem kann aber auch Lüttgen nicht lösen. Die Wissenschaft weiß nicht genau, wie die KI die menschlichen Merkmale aus den Texten gewinnt. „Das ist komplex, undurchsichtig und bisher kaum verstanden“, sagt Pellert.

Studienautoren warnenDie Mannheimer Studienautoren befürchten, dass sich die Vorurteile mit der Zeit festsetzen könnten. „Die Modelle bekommen eine gesellschaftliche Relevanz über die Kontexte, in denen sie eingesetzt werden“, sagt Pellert. Deshalb sei es wichtig, bereits jetzt mit der Untersuchung anzufangen und auf potenzielle Verzerrungen hinzuweisen. In fünf oder zehn Jahren wäre es möglicherweise zu spät für so ein Monitoring: „Die Vorurteile, welche die KI-Modelle reproduzieren, würden sich verfestigen und der Gesellschaft schaden“, warnt der Mannheimer Wissenschaftler.

Redaktion Reporter für Politik und Wirtschaft

Copyright © 2025 Mannheimer Morgen

VG WORT Zählmarke