26. Juli 2024

Management auf den Punkt gebracht!

Ungerechte Algorithmen

INSPIRATION: Viele Menschen wissen überhaupt nicht, was Algorithmen sind. Dabei bestimmen diese längst in weiten Bereichen unser Leben. Müssen wir uns fürchten oder sollten wir das begrüßen? Wie immer gibt es Chancen und Risiken, und für beides sollten wir sensibilisiert sein. Denn „nicht alles, was technisch möglich ist, ist gesellschaftlich richtig.

In einem Interview in der Wirtschaft + Weiterbildung („Vermummungsverbot für Algorithmen“) erläutern zwei Buchautoren der Bertelsmann Stiftung sehr anschaulich, worauf es bei der Diskussion ankommt. Nehmen wir das Beispiel der Personalauswahl: Ob jemand zum Vorstellungsgespräch eingeladen wird, entscheidet längst in vielen Unternehmen eine Software. Wenn niemand weiß, warum diese so entscheidet, wie sie entscheidet, ist das problematisch, denn in ihr stecken die Vorurteile der Programmierer.


Anzeige:

Machen Sie Ihr Unternehmen zukunftssicherer: Lesen Sie "Bright Future Business", das neue Buch von Prof. Dr. Pero Mićić. Erfahren Sie, welche acht Eigenschaften ein zukunftssicheres Unternehmen ausmachen und wie man sie als Masterplan für die Entwicklung des eigenen Unternehmens wie auch als Checkliste für Investments nutzt. Zum Buch...


Andererseits entscheiden auch Menschen, die Bewerbungsunterlagen sichten, nicht ohne Vorurteile. Was ist also schlimm daran? Dass bestimmte Algorithmen überall eingesetzt werden, damit werden also bestimmte Gruppen von Menschen überall ausgeschlossen. Hier hilft nur, dass die Hersteller der Software die Kriterien transparent machen, und dazu müssten sie durch Verbände oder die Politik verpflichtet werden. Und um das einschätzen zu können, bräuchte man unabhängige Institutionen, die die Algorithmen vergleichen und bewerten. Was ja nicht neu ist, woanders gibt es ja auch Prüfinstitutionen, auf die sich der Verbraucher verlassen kann.

Das gilt natürlich nicht nur bei der Personalauswahl. Wenn Banken entscheiden, ob jemand einen Kredit bekommt, helfen ebenfalls immer häufiger Computerprogramme. Das Schlimme daran: Wir als Verbraucher (ebenso wie als Bewerber) wissen meist gar nicht, dass „da ein Algorithmus am Werk ist und welche Daten herangezogen werden.“ Daher fordern die Autoren ein „Vermummungsverbot für Algorithmen„. Wie bei Medikamenten sollten wir erfahren, womit wir es zu tun haben und welche Nebenwirkungen auftrefen. Dann können wir wählen und entscheiden, ob wir zu der einen oder anderen Bank gehen. Oder uns bei Arbeitgeber A oder B bewerben.

Eine interessante Frage: Wie steht es mit der Idee, viele Daten zu sammeln und auf Basis der Analyse einen Algorithmus entscheiden zu lassen, wer zum Bewerbungsgespräch kommen darf? Also ohne dass zuvor Wissenschaftler bewiesen haben, dass es einen stabilen Zusammenhang gibt zwischen den gesammelten Daten und dem späteren Berufserfolg gibt (Beispiel einer App, mit der man ein Rollenspiel bearbeitet und die besten Spieler dann eingeladen werden.) Die Autoren sehen das pragmatisch – warum nicht? Nur muss man dann anschließend untersuchen, ob es diesen Zusammenhang gibt und dann bei Bedarf gegensteuern. Übrigens mit dem Effekt, dass erworbene Qualifikationen und Zertifikate in Zukunft weniger von Bedeutung sein werden als das, was jemand tatsächlich kann – und sei es, ein Videospiel zu bearbeiten. Aber das ist bei Leistungstests ja nicht anders.

Sehr klar ist die Sache an anderer Stelle. Wenn Arbeitgeber E-Mails und Chatnachrichten ihrer Mitarbeiter auswerten lassen und der Algorithmus ihnen verrät, wer Kündigungsabsichten hat oder mit höherer Wahrscheinlichkeit krank wird; oder wenn Krankenkassen Daten sammeln und je nach Risikofaktor individuelle Tarife berechnen, dann müssen wir entscheiden, ob wir dafür künstliche Intelligenz einsetzen oder nicht. Machbar ist es, aber auch erwünscht? Dann entscheidet der gesellschaftliche Diskurs, ob uns Freiheit und Solidarität wichtiger sind als Effizienz und Kontrolle.

Wohltuend realistisch, pragmatisch und ausgewogen, das dazu gehörige Buch könnte interessant sein.

Teile diesen Beitrag:

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert