KRITIK: Ach, wäre das schön. Man gibt die Daten aller Bewerber ins Rekrutierungsprogramm ein, und schwups, spuckt dieses den geeignetsten aus. Und das nicht nur viel schneller als Menschen das können, sondern auch viel zuverlässiger. Aber ob es jemals so kommen wird, ist mehr als fraglich.
In der Wirtschaftswoche sind die Probleme mit der KI recht anschaulich beschrieben (Unnatürliche Selektion). In der Vergangenheit (und vermutlich auch heute noch in vielen Unternehmen üblich) wurden die eingehenden Bewerbungen nach einfachen Kriterien sortiert und dann an die Fachabteilungen weitergeleitet. So eine Sichtung soll ca. 8 Minuten dauern. Klar, dass eine Software das extrem viel schneller könnte, von drei Sekunden ist hier die Rede. Das spart eine Menge Zeit, vorausgesetzt, man hat massenhaft Bewerbungen vorliegen.
Anzeige:
logic systems versteht sich als IT-Unternehmensberatung mit dem Schwerpunkt auf der Entwicklung betriebswirtschaftlicher Softwarelösungen. Seit 1993 ist die Entwicklung von PC-gestützten Unternehmensplanspielen eine der Kernkompetenzen des Unternehmens. Zur Webseite...
Daten aus der Vergangenheit
Aber kann KI viel mehr als nur sortieren und verteilen? Die Anbieter sind davon überzeugt, die Skeptiker nicht. Zentrales Problem: So wie wir Menschen das auch machen, basieren die Entscheidungen der KI auf Daten aus der Vergangenheit. Wenn also der Recruiter gute Erfahrungen mit ehemaligen Leistungssportlern gemacht hat (oder glaubt gemacht zu haben), wird er auch in Zukunft Leistungssportler einstellen. Oder wenn er vor allem Abiturienten ausgewählt hat und damit gut gefahren ist, wird er diese Praxis beibehalten.
Wenn man nun eine „lernende Maschine“ mit Daten füttert und diese dann feststellt, dass ein Merkmal erfolgreicher Programmier ihr Geschlecht ist (nämlich männlich, weil es bisher wenig weibliche gab), dann wird diese schlaue Maschine männliche Programmierer einstellen. „Ein Maschine-Learning-Algorithmus ist inhärent konservativ, nie innovativ.“ Und dieses Muster wird sich dann nur noch verstärken. Was bei Amazon dazu führte, dass ein KI-basiertes Programm gestoppt wurde, weil es Frauen systematisch diskriminiert hatte.
Stumpfsinn
Menschen hingegen können experimentell vorgehen. Sie können von angeblichen Erfolgsmustern abweichen, gegen alle Regeln Entscheidungen treffen und sich auch mal für Kandidaten entscheiden, die ganz aus der Norm fallen. Die Protagonisten der KI betonen immer wieder, dass mit zunehmender Qualität der Daten auch die Schlussfolgerungen der KI immer besser werden. Aber wie soll sich die Qualität der Daten verbessern?
Noch ein Argument, das mich nachdenklich macht. Als Bewerber hat man den Anspruch zu erfahren, warum man eingestellt wurde oder warum nicht. Schon klar, das erfährt man auch heute in der Regel nicht wirklich. Aber wenn man nachfragen würde, könnte einem der Personaler schon mitteilen, ob man zu viel gefordert hat. Oder ob eine bestimmte Qualifikation fehlt oder einem schlicht die Nase nicht gepasst hat. Aber eine lernende Maschine trifft Entscheidungen auf der Basis von Daten, ohne dass irgendjemand weiß, was letztlich den Ausschlag gegeben hat.
Mag sein, dass all das noch gelöst wird. Dass Maschinen nicht nur für uns Entscheidungen treffen, sondern uns anschließend auch ein ausführliches Protokoll erstellen, so dass wir genau nachvollziehen können, wie diese Entscheidungen zustande gekommen sind. Mag ja auch sein, dass Maschinen sogar von selbst darauf kommen, hin und wieder gegen jede Regel zu verstoßen und eigenmächtig Experimente zu machen. Also einem Bewerber dann mitteilen: „Sie wurden ausgewählt, weil sie in keine Kategorie passten und per Zufallsgenerator ermittelt wurden. Das dient dazu, die Qualität unserer Datenbasis zu verbessern, vielleicht finden wir so noch bessere Kriterien zur Auswahl von Kandidaten.“
Was bisher auf dem Markt ist, dürfte hingegen zur Aussage passen: „Es gibt viel Hype und wenig Handfestes.“