20. Juni 2024

Management auf den Punkt gebracht!

Die ich rief, die Geister …

INSPIRATION: Früher lernte man noch Kopfrechnen in der Schule. Heute nutzen wir – auch ich – den Taschenrechner. Man könnte das Fortschritt nennen. Nebeneffekt: Wir verlassen uns auf die Maschinen. Dass wir das Kopfrechnen verlernt haben, wird uns nur dann bewusst, wenn wir gerade keinen Rechner zur Hand haben. Was wäre aber, wenn diese Rechner – ohne dass wir das wüssten – immer runden würden? Dann würden sich doch Ungenauigkeiten ergeben. Na ja, werden Sie sagen: Das ist mir doch egal, ob der Rechner nach der vierten Nachkommastelle Werte abschneidet … passt schon! Wenn aber solche Rechnungen immer wieder, vielleicht sogar in hoher Frequenz, sich aufeinander beziehend erfolgten, die kleinen Rundungsfehler sich also multiplizieren würden? Oder sogar exponentiell anschwellen würden wie ein Tsunami?

Ich sehe schon: Sie halten mich für einen paranoiden Korinthen-Ka … Doch alle Rechner, vom kleinen Taschenrechner bis zum Großrechner machen genau das – worauf Systemtheoretiker (Chaos als sinnvolle Form von Ordnung) übrigens schon lange hinweisen.

Übertragen wir das einmal auf KI (Der Computer sagt Nein). Die Forschung zu Künstlicher Intelligenz hat bislang eher ernüchternde Ergebnisse ergeben. „Es zeigt sich, dass auch algorithmische Entscheidungen – aufgrund verzerrter oder unvollständiger Daten, unzureichender Modellbildung und problematischer Zielsetzungen – ähnliche Probleme aufweisen können wie Entscheidungen von Menschen.“ Eigentlich wenig verwunderlich, weil es doch Menschen waren, die diese Algorithmen erdacht und trainiert haben. Sie haben also auch alle ihre eigenen Überzeugungen und Vorurteile reinprogrammiert: Garbage in, garbage out, heißt es so schön. Computer können eben nicht denken, sondern bloß rechnen und fühlen (Und ewig lockt die KI) sowieso nicht.

Die Maschine als Kumpel

Was passiert nun, wenn Menschen mit solchen Algorithmen zusammenarbeiten und diese für die Entscheidungsfindung nutzen? Ganz automatisch schreiben sie diesen Systemen Fähigkeiten und Kompetenzen zu und lassen sich auf eine Arbeitsteilung ein. Wir Menschen machen aus der Maschine schnell einen Kumpel – so wie Musiker oft ihren Gitarren Frauennamen geben oder Autoverrückte den Lack ihrer Karosserien streicheln. Und wenn die Maschine dann noch ein Kindchen-Schema-Gesicht bekommt, ist es völlig aus und vorbei.

In der Regel reflektieren Menschen nicht, was das für Konsequenzen hat: Für die eigene Rolle, für die Bewertung der eigenen Kompetenzen und der Selbstwirksamkeit sowie für die Zuschreibung von Verantwortung für den Arbeitsprozess und das Ergebnis. Könnte es sein, dass die Gefahr besteht – siehe das Beispiel oben mit dem Taschenrechner – dass wir uns auf die Maschinen zu sehr verlassen? Das klare Fazit der Autorin: „Das schwächt die Autonomie und Selbstwirksamkeit von Mitarbeitenden und schließlich kommt es zu einer Diffusion von Verantwortung.“

Starker Tobak

Obwohl die Anwender die Systeme nicht genau verstehen, verlassen sie sich darauf und exekutieren dann Entscheidungen ziemlich blind und ohne nachzufragen: Der „intelligente“ Computer (Big Brother) hat entschieden. Punkt. Ein Beispiel: Ein KI-System kommt nach Analyse meines Lebenslaufs zur Erkenntnis, dass jemand mit einem so bunten und atypischen Lebenslauf wie ich nicht ins Unternehmen passe. Fertig. Fatal ist, dass Anwender zugleich die eigenen Kompetenzen abwerten – ohne dass ihnen das bewusst ist oder sie das groß reflektieren. Sie machen sich also „dümmer“ als sie sind. Solcherlei „dumme“, also des Kopfrechnens entwöhnte Menschen wie ich, sollen dann aber in Notsituationen, wenn die Maschine ausfällt, einspringen und die Havarie mal eben managen. Schade, dass ich dann völlig überfordert bin, weil ich ja schon Jahre nicht mehr Kopfrechnen trainiert habe.

Noch gravierender: Die Anwender entledigen sich ihrer Verantwortung. Sie, die dummen Menschen, geben ihre Verantwortung komplett an die Maschine ab – denn die weiß es schließlich besser als ich. Ethiker müssten hier aus dem Hemd springen! Wer den Kadavergehorsam von Apparatschiks in Diktaturen verurteilt, kann hier nicht wegschauen. Brauchen wir nicht eine Ethikrichtlinie für den Umgang mit KI? Und in der Tat gibt es seit 2019 „Ethik-Leitlinien für eine vertrauenswürdige KI“, die eine hochranginge Expertengruppe der EU-Kommission zur Diskussion vorgelegt hat. – Man diskutiert noch …

Verantwortungsdiffusion

Astrid Weiss (Responsible Robotics) geht noch einen Schritt weiter: „Die Entwicklung von Robotern findet meist in einem kleinen Kreis von Roboterherstellern statt. (…) Roboter werden auf der Grundlage primär technologisch motivierter Problemdefinitionen entwickelt.“ Die Ingenieure leben also in ihrer eigenen Blase und reden in der Regel nicht mit den Anwendern. Die Konsequenzen sind: Ingenieure, die keine Ahnung vom Alltag ihrer Kunden haben, produzieren Systeme, die sie toll finden, die Einkäufer, die keine Ahnung vom Alltag ihrer Kollegen haben, kaufen – und plötzlich sind die „Dinger“, beispielsweise Reinigungsroboter, auf einer Krankenstation im Einsatz. Was passiert?

Zunächst bemerkt man, dass die „Dinger“ nicht in den Aufzug passen. Hat man das gelöst, sind die „Dinger“ dem Pflegepersonal laufend im Weg. Diese müssen Umwege machen, ausweichen, um mit den „Dingern“ nicht zu kollidieren. Oder Patienten bekommen Panikattacken, wenn sie den „Dingern“ auf dem Flur begegnen. „Roboter sind jedoch nicht so, wie sie in den Medien oft dargestellt werden: menschenähnlich, intelligent, autonom und reibungslos in allen Arten von sozialen und physischen Umgebungen einsetzbar.“ Man könnte also auch sagen, die „Dinger“ lösen nicht nur Probleme, sondern schaffen gleich eine Reihe neuer. Manchmal verschwinden sie deshalb auch gleich im nächstbesten Wandschrank. – So hat man dann wieder seine Ruhe.

Was für ein Elend!

Dabei könnte es so einfach sein, es müssten nur alle Stakeholder von Anfang an zusammenarbeiten. Und sie müssten alle die soziotechnische Brille auf der Nase haben, wissen, dass die Einführung einer neuen Technologie sofort Veränderungen auf der sozialen Ebene bewirken wird. Dieses Bewusstsein und die konsequente Umsetzung ist leider jenseits der Arbeitspsychologie noch zu wenig Allgemeinwissen, wie die zahlreichen Havarien mit Videotelefonie in Coronazeiten gezeigt haben. Es erinnert den Baby Boomer daran, wie wir am Anfang der Computerära mit Textverarbeitungsprogrammen umgegangen sind: Am Zeilenende setzen wird ein Return: So kannten wir das von der Schreibmaschine. E-Mails haben wir konsequent ausgedruckt. Und in Coronazeiten haben wir Deppen Meetings mit 50 Mitarbeitern via Bildtelefonie gemacht. Was für ein Elend!

Die Einführung einer neuen Technologie muss aber immer intensiv begleitet werden. Lernerfahrungen müssen gemacht und reflektiert werden. Wir brauchen „Algorithm Literacy“ (früher hieß das: Computer-Führerschein). Aber noch wichtiger: Die Technologie muss dem Anwender angepasst werden – und nicht umgekehrt. Die Arbeitspsychologie predigt das schon seit 70 Jahren. Nur die Ingenieure scheinen auf diesem Ohr taub zu sein.

6 Tipps, einen Roboterangriff zu überstehen

Zum Schluss noch etwas Witziges: Gary Marcus, ein berühmter KI-Experte, der im selben Heft interviewt wird (Rebooting AI), gibt sechs Tipps, einen Roboterangriff zu überstehen:

  1. Schließen Sie die Tür! Roboter können heute noch nicht gut mit Türklinken umgehen.
  2. Streichen Sie die Türklinke und die ganze Tür schwarz. Roboter finden dann niemals die Klinke.
  3. Ziehen Sie ein T-Shirt mit einem Baby-Konterfei an. Roboter halten Sie dann für ein Baby und laufen vorbei.
  4. Gehen Sie ein Stockwerk höher und spicken Sie dabei die Treppe mit Bananenschalen und Nägeln. Mit solchen Situationen können Roboter schlecht umgehen.
  5. Steigen Sie auf einen Tisch. Wenn manche Roboter auch Treppensteigen können, auf Tische klettern können sie vermutlich nicht.
  6. Rufen Sie um Hilfe und warten Sie ab. Irgendwann wird die Batterie des Roboters leer sein.
Teile diesen Beitrag:

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert