INSPIRATION: Es gibt keinen Grund zum Defätismus als Coach. Coaching mittels KI mag heute für viele attraktiv und günstig erscheinen. Doch der menschliche Coach ist – wenn er denn gut ausgebildet ist – immer besser.
Eine spannende These. Denn die Branche der professionellen Coaches sieht ihr Geschäftsmodell vor gravierende Herausforderungen gestellt, seitdem KI am Start ist. Autor Stefan Stenzel (Coachbots werden uns zu „besseren Menschen“ bzw. Coaches machen!) bringt die Sache auf den Punkt: „Wie kann und muss sich ein menschliches Coaching zukünftig unterscheiden, um noch als Alternative wahrgenommen zu werden, für die der Klient wahrscheinlich sehr viel mehr zahlen muss als für die (sogar kostenlose) Nutzung eines Standardbrowsers oder einer App?“
Anzeige:
Setzen Sie Kurs auf Veränderung – Ihre Klarheit beginnt hier!
Im Mai und November auf Norderney:
👉 Finde deine berufliche Heimat: Klarheit für Ihre berufliche Zukunft.
👉 Mee(h)r Zeit für Leben: Raus aus dem Autopilot, hin zu bewusster Selbstführung.
Infos und Anmeldung
Diese Frage hatte der Autor in einer früheren Veröffentlichung schon aufgeworfen (ChatGPT kann auch ‚coachen‘!?). Die, zunächst verblüffende, vielleicht sogar provokante Antwort, die er im Folgebeitrag gibt, lautet: Keine Panik!
Er berichtet von einem „Coaching“-Selbstversuch mit ChatGPT-3. Sein allgemeines Fazit lautet: Ein anregender „Coaching-Dialog“ zur Selbstreflexion ist mit Einschränkungen möglich. Diese Aussage beruht auf zirka zehn Dialogen mit dem Large Language Modell (LLM). Das erhebt selbstverständlich keinen Anspruch auf Repräsentativität. Wer jedoch den beruflichen Hintergrund des Autors kennt, seit 2002 verantwortlich für externe Coaching-Services über alle Management-Level hinweg, zugleich interner Coach bei der SAP SE, wird seine Einschätzungen vermutlich für belastbar einschätzen.
Was kann ChatGPT gut oder nicht so gut?
- Zusammenfassungen: Das kann die KI „bias-frei“ – im Gegensatz zum Menschen, der immer selektiv wahrnimmt.
- Paraphrasierung: Die KI-Formulierungen sind korrekt, wirken aber „unmenschlich glatt“.
- Empathie: Die KI simuliert zwar passend und angemessen verbale „Empathie“ in den Dialogen (z.B.: „Es tut mir leid, das zu hören!“). Es wirkt aber oft „sozial erwünscht“, also stereotyp, und wenig spezifisch.
- Emotionalität: Die KI reagiert stoisch mit unmenschlichem Gleichmut. Sie zeigt keinerlei Zeichen von Ungeduld oder Stimmungsschwankungen.
Bilanzierend attestiert der Autor der LLM zwar Potenzial. Doch er sieht auch etliche Defizite im Coaching-Dialog mit der KI:
- „Bias-Freiheit“: Die Anführungszeichen stammen vom Autor selbst und sind passend und notwendig. Weil damit angezeigt wird, dass damit Objektivität unterstellt wird, die es nicht gibt, nicht geben kann. Auch die KI bezieht sich bloß auf ihre Trainingsdaten. Und die selektive Wahrnehmung des Menschen, so würde ich ergänzen, ist auch gar nicht schlimm. Im Gegenteil, sie zeichnet Menschen als Subjekte, als Sinnsucher aus. Und es macht uns einzigartig.
- Reframing und Contracting: Das kann eine KI offenbar kaum. Sie gibt also weniger Anregungen, Provokationen und arbeitet wenig an der Beziehung. Weil sie gar nicht „weiß“, was ein Frame, also Sinn ist, würde ich ergänzen, kann sie damit auch nicht spielen. Und sie weiß auch nicht, was eine Beziehung ist.
- Neutralität: Die KI formuliert „aalglatt“. Typisch menschliche Unvollkommenheiten wie Versprecher oder unbeendete Sätze gibt es nicht. Dito keinen Humor. Dafür müsste sie mit Mehrdeutigkeiten umgehen können. Da wird ihr aber bloß schwindelig.
- „Emotionale Blindheit“: Spontane Reaktionen auf non- und paraverbale Signale fehlen. Mehrdeutigkeiten, kulturelle Differenzen – hier wird es schwer für KI.
- Ratschläge: Die KI kann sich kaum zurückhalten mit To-do-Listen und Lösungsideen. Das passt eher in ein Beratungs- und Trainingsformat, weniger zum Coaching.
- Willkürlichkeit: Die KI produziert unterschiedlichen Output auf identische Prompts. Diese mangelnde Zuverlässigkeit mindert ihre Eignung für Coaching-Trainingszwecke.
Das Alleinstellungsmerkmal
Vielleicht, so mutmaßt Autor Stenzel, hängt seine Einschätzung des Coaching-Dialogs mit ChatGPT doch von seinem Vorwissen und den Vergleichsmöglichkeiten ab. Der Laie mag die genannten Einschränkungen vermutlich gar nicht wahrnehmen oder auch für weniger relevant halten. Dem mag man zuzustimmen. Allerdings muss man sich dabei auch die Größenordnungen vor Augen halten: Wer hat denn schon Erfahrungen mit einem „sehr erfahrenen, nach professionellen Standards arbeitenden Coach“ gemacht? Das dürfte die Minderheit sein. Die Masse mag fasziniert sein und Irritationen – wenn überhaupt – als Kinderkrankheiten wahrnehmen. Die anspruchsvolle Minderheit hingegen belächelt KI-Coaching vielleicht (noch) als „nette Spielerei“.
Stenzel rechnet damit, dass diese Systeme mit der Zeit immer besser werden. Er mutmaßt, dass die KI bald lernen wird, unsere Mimik zu entschlüsseln, und damit „zwischen den Zeilen“ wird lesen lernen, also unsere Emotionen entschlüsseln könne. Deshalb stellt er die Grundsatzfrage: Was wäre in Zukunft das Alleinstellungsmerkmal des Coachings durch einen Menschen? Was wäre der besondere Mehrwert für Klient*innen, für den man bereit wäre, „etwas (mehr) zu zahlen“.
Beziehung
Die Forschung betont die Beziehung zwischen Klienten und Coach als wichtigsten (ca. 30%) Wirkfaktor. Das ist absolut richtig, dass Stenzel hier ansetzt. Denn mit der KI gibt es dabei so einige Schwierigkeiten:
- KI ist körperlos: Da kann man herstellerseitig zwar noch so einiges an Sensorik anflanschen, es wird nichts daran ändern, dass sie eine „Blechbüchse“ (meine Wortwahl!) bleibt. Menschen sind analog. Sie sind eben nicht 24/7 und überall verfügbar. Sie haben gute und schlechte Tage, sind unvollkommen, verändern sich, schleppen Geschichte mit sich herum; sie altern. Sie sind unberechenbar und können körperlich übergriffig reagieren. Sie sind einzigartig.
- KI ist heimatlos: Menschen gehen spezifisch in „Resonanz“. Sie bringen ihre Geschichte, ihre Erfahrung mit. Maschinen simulieren Nähe nur. KI hat, so würde ich ergänzen, keine Eltern, keine Freunde, keinen „Fußball“-Verein – und hat auch keine Lieblingsspeise. Sie ist weder glücklich noch ekstatisch, auch nicht gelegentlich depressiv (das gibt’s nur im „Märchen“: Per Anhalter durch die Galaxis).
- KI ist emotionslos: Sie kann Emotionen bloß simulieren. Dabei greift sie auf Stereotype wie die acht, angeblich kulturübergreifend gültigen Basisemotionen nach Paul Ekman zurück (4 Irrtümer über nonverbale Kommunikation). KI kann auch nicht schweigen. Als ein generatives System kann sie nur unablässig plappern.
- KI ist intentionslos: Menschen haben Ziele, die sie erreichen wollen. Die KI ist bewusstlos, hat keinen freien Willen – und auch keine Ziele.
Konsequenzen
Insofern sollte man sich die Frage stellen, was passiert, wenn sich Menschen der KI als Assistenten bedienen. Autor Stenzel spricht eine „schleichende Qualifikationserosion oder gar Rückbildung von menschlichen bzw. kulturellen Fähigkeiten“ an. Für ihn droht die marketingseitig immer wieder erhobene Formel der „Demokratisierung“ in blanken Zynismus und ethischen Utilitarismus umzuschlagen.
Weisheit, so Stenzel, speist sich aus der individuellen Erkenntnis eines Menschen. Aus seiner „sehr intensiven Auseinandersetzung mit (auch widrigen) Lebensumständen“. Und braucht es nicht das „aktiv gelebte und zuweilen erkämpfte Leben, um als glaubwürdig und wertvoll erlebt zu werden“? Mit Dilemmata umzugehen, gehört nicht zu den Stärken von KI, resümiert der Autor, und hat da gewichtige Unterstützer auf seiner Seite (Und wer bringt den Müll raus?).
Was ist mit der Intuition, die uns Menschen so gut macht? KI kann so etwas nicht. KI weiß auch nicht, dass sie nichts weiß. Aber Menschen können das wissen. KI kann auch nicht mit Humor umgehen. Kein Grund also für Menschen, sich gegenüber der Maschine als minderwertig zu betrachten. Im Gegenteil: Wir können stolz auf unser Menschsein sein. Und die Entwicklung der „Persönlichkeit bzw. Identität“ bei Menschen macht für den Autor den Unterschied – und auch für Klienten im Coaching-Dialog.
Ein paar weiterführende Gedanken
Die Gedanken und Schlussfolgerungen des Autors zeigen fundamental wichtige Aspekte in der aktuellen Diskussion auf. Sie weisen in die richtige Richtung, die Conditio Humana herauszuarbeiten. Aber sie sind mir an einige Punkten noch nicht radikal genug.
Die Beziehungsgestaltung, die Stenzel hervorhebt, lässt sich mit Bleckwedel (Spotlight auf einen blinden Fleck) noch radikaler betrachten: Sie erfolgt auf vier Dimensionen: leiblich, emotional, kooperativ und kommunikativ.
Doch KI kann nicht leiblich. Auch wenn heute mancher vom Sexroboter träumen mag (Und ewig lockt die KI), sie hat keinen Körper, es gibt keine Relation, das menschliche Verlangen bleibt autistisch.
Die Vorstellung, dass KI die Menschen emotional verstehen könnte, muss als Irrglaube und Illusion bezeichnet werden. Auch wenn Tech-Konzerne nun dabei sind, der KI die Basis-Emotionen nach Ekman anzutrainieren. Das Konzept ist als Karikatur längst widerlegt (Emotionen: Gefühlsduselei vermeiden). Coaching-Klienten fühlen sich von der KI eben nicht emotional wirklich verstanden, sondern erleben eine emotionale Oberflächlichkeit und damit Dissonanz. Wollte KI die emotionale Granularität, also Differenziertheit, entwickeln, die angemessen wäre, würde das enorm aufwändig werden. Für Menschen ist das nicht so schwer. Ihr Gehirn funktioniert eben völlig anders als KI. Es ist wie beim autonomen Fahren, worauf Autor Stenzel übrigens auch verweist. Das funktioniert am besten im Labor, nicht so gut in der „freien Wildbahn“, in der menschliche Agenten, ob als Fußgänger oder Autofahrer, ebenfalls unterwegs sind.
Es gibt auch keine wirkliche Kooperation mit KI, kein Companionship, kein Commitment. Weil KI zeitlos, also geschichtslos ist. Sie ist immer nur im Hier-und-Jetzt, hat kein Gedächtnis. KI und mich verbindet nicht, dass wir mal zusammen „Pferde stehlen“ waren.
Auch den Beziehungsaspekt Kommunikation kann man für KI als Scheinkommunikation ins rechte Licht rücken. Feldman Barrett sprich vom „affektiven Realismus“. Nicht die KI versteht uns, wir sind es, die ein Verständnis auf die Maschine attribuieren. Weil wir Menschen eben notorische Sinnsucher sind. So wie wir Gesichter in Wolkenformationen sehen. Wir konstruieren uns die Welt, in der wir leben, kognitiv wie emotional (Embodiment: Ganz von dieser Welt). Man könnte es auch Anthropomorphismus nennen oder magisches Denken. Oder Parasozialität. Das meint in der Medienpsychologie die Tendenz, den TV-Nachrichtensprecher zur eigenen Familie zu „adoptieren“ oder den Schauspieler mit der Rolle zu verwechseln, die er spielt.
Die alte Sage von Pygmalion
Gerade, so scheint es mir, sind offensichtlich viele dabei, sich in eine Maschine zu verlieben. Sie zu vergöttern, sie zu bewundern, sich auf sie zu verlassen. Das ist tragisch, weil es an die alte Sage von Pygmalion erinnert. Der griechische Bildhauer schuf sich ein Bildnis einer wunderschönen Frau – und verliebte sich in sie.
Alfred Korzybski, der Systemtheoretiker, sagte einst: „The Map is not the Territory“. Wir dürfen den Unterschied nicht verwischen, müssen kritisch bleiben mit den Ergebnissen, die eine KI liefert. Vor allem, wenn es nicht nur um die Optimierung der betrieblichen Supply Chain geht, sondern um mich persönlich. Dann sollte ich die KI-Ratschläge relativieren, anzweifeln, gegenchecken. Die anderen, die das nicht tun, werden „durstig“ bleiben – und nicht wissen, warum. Und das genau ist die Chance der menschlichen Coaches. Sie wissen, dass, warum und wie der Mensch dem Menschen eine sprudelnde Quelle sein kann.