Künstliche Intelligenz kann nur so objektiv urteilen, wie sie es aus ihren Daten lernt. Das kann ganz schön schiefgehen, zeigt ein neuer Fall bei Amazon: Eine KI-gestützte Auswahlsoftware für Bewerber soll Vorurteile gegenüber Frauen entwickelt haben.

Den perfekten Kandidaten für einen Job zu finden, ist für Unternehmen ein ungeheurer Aufwand. Aufwand bedeutet Kosten. Und die sollen für gewöhnlich möglichst geringgehalten werden.

Wie praktisch wäre es also, wenn eine Künstliche Intelligenz automatisch aus Hunderten oder gar Tausenden möglicher Kandidaten den Hauptpreis zieht? Sehr praktisch. Und günstig.

Kein Wunder also, dass gerade große Konzerne wie Amazon, die einen hohen Durchlauf an Mitarbeitern haben und permanent wachsen, in KI-Software für die automatisierte Personalauswahl investieren.

Bewertung nach dem Fünf-Sterne-Prinzip

Jetzt berichtet Reuters, dass Amazons seit Anfang 2017 eingestellte KI-Software für die Mitarbeitersuche ein bedeutendes Defizit hatte: Sie hatte Vorurteile gegenüber Frauen.

Entwickelt und eingesetzt wurde die Software seit 2014. Sie durchsuchte das Web nach geeigneten Kandidaten und bewertete sie auf einer Fünf-Sterne-Skala – so ähnlich wie Amazon-Produkte.

“Jeder wollte diesen heiligen Gral”, zitierter Reuters eine mit dem Projekt vertraute Quelle. “Es sollte eine Software sein, in die man 100 Bewerbungen eingibt und fünf Bewerber werden ausgegeben, die dann eingestellt werden.”

Trainingsdaten hauptsächlich aus männlichen Lebensläufen

2015 fiel den Verantwortlichen auf, dass männliche Kandidaten für Entwicklerjobs und andere technische Berufe unverhältnismäßig besser eingestuft wurden als entsprechend qualifizierte Frauen.

Grund dafür soll sein, dass die KI-Software mit passenden Amazon-Bewerbungen der letzten zehn Jahre trainiert wurde – und diese Bewerbungen kamen vornehmlich von Männern.

Laut der Quellen von Reuters wertete die Software Bewerbungen mit dem Wort “Frauen” darin grundsätzlich ab. Absolventinnen zweier weiterführender Schulen für Frauen wurden ebenfalls schlechter eingestuft. Bevorzugt wurden außerdem Verben, die eher in männlichen Lebensläufen auftauchten, so wie “ausgeführt” oder “erobert”.

Die Amazon-Entwickler sollen versucht haben, die KI-Software für die entsprechenden Begriffe nachträglich zu neutralisieren – ohne Erfolg. Entscheider stellten das Projekt Anfang 2017 ein und lösten das Entwicklerteam auf.

Die Vorurteile zugunsten von Männern sollen nicht das einzige Problem gewesen sein: Insgesamt bewerten Reuters Quellen die Empfehlungen als “zufällig”. Häufig seien völlig ungeeignete Kandidaten für alle möglichen Jobs empfohlen worden.

Die Personalverantwortlichen bei Amazon sollen in dieser Zeit die Software zwar genutzt, sich aber nicht ausschließlich auf die automatischen Empfehlungen verlassen haben.

Neuer Anlauf geplant

Derzeit hat Amazon laut Reuters eine deutlich reduzierte Version der KI-Software im Einsatz, die einfache Aufgaben übernimmt, beispielsweise doppelte Kandidaten aus der Datenbank entfernt.

Ein neu geformtes Team soll angeblich den nächsten Anlauf für eine vollumfängliche KI-Software für die automatische Personalauswahl unternehmen – diesmal mit einem Schwerpunkt auf Diversität.

Weiterlesen über Künstliche Intelligenz:


Tagesaktuelle und redaktionell ausgewählte Tech- und VR-Deals: Zur Übersicht
VRODO-Podcast #120: Cebit-Erinnerungen, Duplex-Menschen und KI-Vorurteile | Alle Podcast-Folgen


Unsere Artikel enthalten vereinzelt sogenannte Affiliate-Links. Bei einem Kauf über einen dieser Links erhalten wir eine kleine Provision. Der Kaufpreis bleibt gleich.