INSPIRATION: Die Zeiten, in denen man zu seinem Chef ging, um ihn um Rat zu fragen, sind doch schon lange vorbei, oder? Spätestens seit dem Zeitpunkt, an dem den Mitarbeitenden erlaubt wurde, am Arbeitsplatz das Internet zu nutzen. Sie erinnern sich? Es gab damals Arbeitgeber, die sich damit sehr schwer getan haben. Bei einigen wurde sogar der Zugang zum Intranet erst einmal nur ausgewählten Fach- und Führungskräften ermöglicht.
So ändern sich die Zeiten. Heute fragen viele nicht mal mehr den fachlich versierten Kollegen um Rat, sondern gleich die KI. Wenn diese dann auch noch vom eigenen Unternehmen genau zu dem Zweck zur Verfügung gestellt wird – wozu benötigt man dann noch eine Führungskraft? Tatsächlich stellt ein Beitrag der Wirtschaftswoche die Frage: „Was müssen die eigentlichen Chefs tun, um … sich selbst zu behaupten?“ (Vorsprung trotz Technik).
Anzeige:

Totaler Unsinn? Vielleicht ja. Aber nicht, weil KI nicht in der Lage wäre, klassische Führungsaufgaben zu übernehmen. Laut einer Studie überlassen angeblich ein Fünftel der Manager in den USA heute schon Entscheidungen über Gehaltserhöhungen, Beförderungen oder Kündigungen der KI. Und das müssen keine schlechten Entscheidungen sein. Oder zumindest müssen sie nicht schlechter sein als die, die von Menschen getroffen werden. Aus einer anderen Studie der TU Berlin ist es eher anders herum: Wenn Ärzte in der Radiologie die Empfehlungen der KI überstimmen, führt dies eher zu Fehlentscheidungen.
Regeln festlegen
Warum sollte das bei Führungskräften anders sein? Denn auch für diese gilt wie für Ärzte, dass sie es als „unvereinbar mit der eigenen Rollenwahrnehmung“ erleben, wenn sie den Empfehlungen des Systems folgen. Es ist also eher ein psychologisches Problem, weniger eines der fehlenden Kompetenz von KI-Systemen. Somit stellt sich die Frage, welche Rolle Führungskräfte im Zeitalter der KI wirklich spielen werden?
Die Antwort aus dem Beitrag der Wirtschaftswoche: Sie legen die Regeln fest, wie die Beschäftigten mit der KI umgehen sollen. Laut einer Umfrage der IMC Hochschule für Angewandte Wissenschaften Krems dürften die meisten gar keine Ahnung davon haben, wo diese schon überall im Einsatz ist. Die Befragten gaben zu 66% an, dass sie generative KI verwenden, ohne dass der Arbeitgeber davon etwas weiß. Und 58% verraten auch nicht, wenn sie diese genutzt haben, sondern tun so, als ob es ihre eigenen Ergebnisse sind.
Ist das ein Problem? Vorher wusste doch auch niemand, ob der Mitarbeitende einen Kollegen, eine Fachkraft oder das Internet befragt hatte, um eine Präsentation zu erstellen. Und vermutlich hat auch vorher niemand überprüft, ob die hier gewonnenen Erkenntnisse tatsächlich stimmen. Vielleicht müssen wir in Zukunft einfach ganz anders mit unseren Quellen umgehen. Dann wird unter einem Bericht stehen: „Erstellt mit Hilfe von ChatGPT, unterstützt von Kollege Schuster und überprüft durch Recherche bei Wikipedia.“
Selber denken
Eine Führungskraft erklärt in dem Beitrag, dass sie bei E-Mails offen schreibt, dass ihr Copilot dabei geholfen hat. Die Mitarbeitenden schätzen das angeblich. Vielleicht sind ihre Mails nun einfach besser formuliert … Im Ernst: Sollte das die Konsequenz sein? Selbst bei der einfachsten E-Mail verwenden wir doch Sätze, die wir schon mal irgendwo gehört haben, oder?
Das Problem ist nicht das Verwenden der KI, sondern das unkritische Übernehmen. Einfach weil es ja so bequem ist – man muss nicht mehr selbst formulieren. Oder gar selbst denken. Daher klingen Empfehlungen für Regeln wie diese schon vernünftig: „Die Mitarbeitenden sind verpflichtet, generierte Antworten zu verstehen.“ Oder: „Ergebnisse werden erst dann weitergegeben, wenn sie auf Richtigkeit geprüft wurden“. Eigentlich eine Selbstverständlichkeit, sollte man meinen. Ein Tipp, der aus dem medizinischen Umfeld stammt: „Eine allzu klare KI-Empfehlung sollte ein Signal sein, die Eingabe zu hinterfragen.“
