3. Dezember 2024

Management auf den Punkt gebracht!

Assistent oder Partner?

INSPIRATION: KI als Assistent im Team: Da können viele recht gut mit leben. Weil die Hierarchie klar ist: Meister und Knecht. Den entscheidenden Schritt weiterzugehen und KI als gleichwertigen Partner im Team anzuerkennen, das würden sich dann die meisten doch nicht trauen. Denn jetzt wird es irgendwie unheimlich.

Ist das nicht eine ungeheuerliche Vorstellung: KI als gleichwertiger Partner im Team? Was tun, wenn sie Blödsinn verzapft, durchdreht oder Menschen gefährdet? Das wäre ein Szenario, dass man nicht erleben möchte. Doch: Messen wir mit zweierlei Maßstab? Menschen können das eben auch – und tun es gelegentlich auch. Keiner legt Menschen prophylaktisch an die Leine, beschneidet ihre Autonomie, verhaftet sie im Vorfeld. Die Gesellschaft lebt mit dem latenten Risiko der Freiheit. Und reagiert dann im Nachhinein gegebenenfalls mit Freiheitsstrafe oder Psychiatrieeinweisung. Das sollte man sich zunächst vor Augen halten, wenn man über die Reichweite der Interaktion von Menschen mit KI räsoniert.


Anzeige:

Die Arbeitswelt braucht agile Coachs, um Selbstorganisation, Innovation und neues Rollenverständnis zu implementieren. Die Neuerscheinung „Agiler Coach: Skills und Tools“ liefert für jeden agilen Coach eine beeindruckende Bandbreite an Grundlagen, Methoden und Werkzeugen für die Team- und Mitarbeiterentwicklung im agilen Arbeitsalltag. Zum Buch...


Aber jetzt: KI. Warum sollte man den Status von KI in der Teamarbeit überhaupt aufwerten? Warum soll man ihr einen erweiterten Handlungsspielraum zugestehen, ihren Grad der Autonomie erhöhen und sie eigene Entscheidungen treffen und Handlungen ausführen lassen? Weil dies Flexibilität erhöht, argumentieren die Autorinnen (KI als Teammitglied)! „KI-Teammitglieder [können] ihre Verhaltensweisen flexibler an Veränderungen innerhalb der Aufgabe oder hinsichtlich der Rahmenbedingungen anpassen.“ Mensch und KI arbeiten dann Hand in Hand. „KI trägt dabei indirekt (durch Interaktionen mit menschlichen Mitarbeitenden) sowie unmittelbar (durch Handlungen oder Entscheidungen) zum Arbeitsergebnis bei.“

Hand in Hand

Es gibt eben nicht nur die dunkle Seite des KI-Einsatzes, sondern auch die helle. Doch – wie weit wollen wir gehen? Die Autorinnen beschwichtigen eine weitere diffuse Angst: Es geht nicht darum, dass die KI den Menschen ersetzt. Es geht um eine gute Ergänzung. „Diese Herangehensweise ist u. a. darin begründet, dass für die überwiegende Zahl der bestehenden und voraussehbaren KI-Anwendungen eine Besetzung von auf Menschen zugeschnittene Arbeitsrollen durch KI schlicht nicht möglich ist.“ Mal ganz praktisch: Roboter verdrängen keine Straßenkehrer. Sie wären viel zu teuer im Vergleich zu den Blue-Collar-Jobs.

Der Einsatz von KI transformiert die Arbeitsprozesse. Und das ist eine spannende Sache, die es zunächst anzuerkennen und zu beobachten gilt. Immer wenn solche Transformationen stattfinden, sind wir gut beraten, das Konzept des Soziotechnischen Systemansatzes zu nutzen.

Dieses lehrt schon seit Jahrzehnten, dass Mensch, Technik und Organisation (MTO-Konzept) gemeinsam verändert werden müssen. Weil nämlich Veränderungen auf einer Seite zwangsläufig Veränderungen auf der anderen Seite bewirken – und umgekehrt.

Wenn es in zahllosen Anwendungsfällen, zuletzt beim Thema virtuelle Zusammenarbeit (Homeoffice, Zoom & Co.) zu besichtigen, sinnvoll ist, diese Brille aufzusetzen (Das Schlechteste aus beiden Welten), dann natürlich auch bei der Interaktion mit KI. Obwohl – oder gerade, weil (!) – so wenige Menschen diese Brille aufsetzen, ihnen diese Optik immer noch nicht geläufig ist. Nach dem Motto: Die Erde ist eine Scheibe. Geht doch! Geht aber eben nur im Nahbereich, in dem wir die meiste Zeit unterwegs sind. Je mehr wir über den Tellerrand hinausschauen, desto mehr erkennen wir die Unzulänglichkeit dieses Weltbilds.

Erwartungen

Die Autorinnen stellen in den Mittelpunkt ihrer Ausführungen, dass Menschen Erwartungen an KI haben. Antizipatorische (Was wird geschehen?), aber auch normative (Was sollte geschehen?). Und sie resümieren diverse Beobachtungen: So lässt sich eine Paradoxie aus Flexibilitäts- und Kontrollerwartungen an KI-Teammitglieder beobachten: KI soll im Team menschenähnliche Leistungen vollbringen, damit sie ernstgenommen wird. Aber wollen wir das tatsächlich? Wollen wir Menschen nicht doch lieber den Not-Aus-Schalter in der Hand behalten? Wem fiele da nicht HAL aus Stanley Kubricks genialem Film 2001 – Odyssee im Weltall ein? Ein anderes Beispiel: KI kann durch Screening menschlicher Emotionen Menschen Rückmeldung über deren Stresslevel geben. Aber wollen wir uns das von einer „Kiste“ vorhalten lassen? Vielleicht sogar vor versammelter Mannschaft?

Es lassen sich auch widersprüchliche Erwartungen an KI und solche an Menschen beobachten: Ein KI-Team-Mitglied darf keine Fehler machen, lautet die Erwartung. Sonst zweifeln wir gleich an ihm. Aber Menschen gesteht man das Fehlermachen zu. Schließlich lernen wir Menschen aus unseren Fehlern. KI nicht? Es geht auch in die andere Richtung: Wir überschätzen KI und verlassen uns blind auf sie. Nach dem Motto: Wenn das die KI sagt, wird es schon richtig sein. – Da können wir dann das eigene Gehirn abschalten. Passiert nicht? Oh doch: passiert – und nicht zu knapp.

Ein anderes Beispiel: Von allen Teammitgliedern erwarten wir hohe kommunikative Fähigkeiten. Aber bei der KI machen wir vorsorglich schon einmal Abstriche (ist ja bloß eine Maschine). Um dann im Folgenden positiv überrascht zu werden. Was zu einer Aufwertung der KI führen müsste. Trauen wir ihr jetzt mehr zu als den menschlichen Kollegen? Oder blenden wir das Potenzial der KI aus, weil wir „dem Braten nicht trauen“? Wir kennen solche Effekte aus dem „richtigen Leben“: Wer einmal beim Lateinlehrer den Eindruck hinterlassen hat, schlicht dumm oder faul zu sein, der kommt nie mehr auf einen grünen Zweig. Die Autorinnen berichten von einem Experiment, indem die eine Gruppe dachte, mit einer KI zu kooperieren, die andere dachte, mit einem Menschen zu kooperieren. Beide kooperierten aber mit einem Menschen. Die erste Gruppe traf weniger Abstimmungen in der Zusammenarbeit und produzierte ein schlechteres Ergebnis.

Interessanterweise unterscheiden sich die Erwartungen verschiedener Teammitglieder an KI auch. Das hat individuelle, aber auch kulturelle Hintergründe. Mentale Modelle, also Glaubens- und Wissensstrukturen, können in der Teamarbeit homogen, aber auch heterogen sein. Und sie können mehr oder weniger passend zur Realität sein, also beispielsweise dem Potenzial einer KI gerecht werden. Wenn man solches nicht reflektiert, bleibt es verborgen. Was aber Konsequenzen hat: Es wirkt halt im Untergrund.

Und die Moral von der Geschicht‘

All das zeigt, die Gesetze der Wahrnehmungspsychologie, der Gruppendynamik und so weiter gelten ebenfalls in Bezug auf die KI und wirken sich in der Praxis aus. Wenn man also KI in der Teamarbeit implementieren will, wäre das Dümmste, was man tun kann, die Mitarbeiter einfach ins kalte Wasser zu werfen. „Für die Ableitung effektiver Maßnahmen in diesem Kontext [ist es] unumgänglich, die Mitarbeitenden, die mit dem KI-Teammitglied zusammenarbeiten werden, möglichst früh in Überlegungen zur Einführung des KI-Teammitglieds einzubeziehen.“

Solches verlangt nach Teamentwicklung – wie sie in anderen Anwendungsfällen eben auch selbstverständlich ist. Deshalb wäre auch das einseitige Anpassen der KI an den Menschen zu kurz gesprungen. Darüber hinaus muss man solche Teams über die Implementierung hinaus im Arbeitsalltag kontinuierlich begleiten. Bei der Einführung von Gruppenarbeit in Unternehmen in den 1990er-Jahren hat man die Notwendigkeit erkannt. – Also nicht alle haben sie erkannt … Und auch heute, bei der Einführung agiler Arbeitsformen, müssen so einige ihr Lehrgeld wieder bezahlen. Es ginge einfacher, wenn man Arbeitspsycholog:innen bei der Einführung von KI von Beginn an involvieren würde.

Teile diesen Beitrag:

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert