REZENSION: Emily M. Engelhardt / Stefan Kühne – Künstliche Intelligenz in der Beratung. Ein Kompass für die systemische Praxis. V&R 2025.
Viele Coaches und Berater mögen das Thema KI ambivalent erleben: Den einen ist es suspekt. Sie misstrauen den großen Technologiekonzernen, sorgen sich um Datenschutz und schwören auf Manufaktur. Zugleich misstrauen sie ihren (potenziellen) Klienten. Sie fürchten ein Abwandern der Klientinnen zu oder ein Reinregieren in ihre Arbeit durch die KI; so wie schon die Ärzte über „Doktor Google“ die Nase rümpften. Die anderen sind neugierig und euphorisch, experimentieren, adoptieren, animieren auch ihre Klient:innen zum Ausprobieren – und gar manche/r träumt von einem Quantensprung in der Beratung. Und dazwischen tummelt sich vermutlich die ganze Bandbreite an „Jein“ und „Sowohl-Als auch“. Dem Autorenduo ist dies wohl bekannt. Denn diese Ambivalenz ist ihnen vertraut. Weil sie sie schon seit mehr als zwanzig Jahren kennen. Also nicht die GenKI, aber die Fragestellung: Geht gute Beratung auch rein textbasiert, telefonisch oder mittels Videotelefonie?
Anzeige:

Während sich die Gilde der Coaches im Jahre 2020 noch zierte und behauptete, gute Beratung ginge nur face-to-face in Präsenz, war man in der Telefonseelsorge, im Bereich von psychosozialer Beratung und Psychotherapie schon längst weiter – und daher, im Gegensatz zu den Coaches, auch gut vorbereitet auf die Pandemie-Disruption und die Nutzung von Online-Settings. Die Autoren entstammen dieser Szene und haben schon zehn Jahre vor der Pandemie maßgebliche Veröffentlichungen rund um Online-Beratung geleistet.
Die Leserschaft hat es hier also mit ausgewiesenen Experten zu tun. Für sie war die „Geburt der GenKI“ daher unmittelbar faszinierend und das Experimentieren verlockend. Zugleich stand für sie die Fragestellung im Raum, wie kann der KI-Einsatz in der systemischen Beratung funktionieren? Denn auch sie selbst kennen das Wechselbad von Lust und Zweifel im Umgang mit GenKI. Ihr Anliegen daher: den Beratungspraktiker:innen einen fundierten und kritischen Einblick in die Welt der KI zu geben. Damit diese eine eigene und reflektierte Haltung entwickeln können. Das ist ihnen, so kann man sogleich konstatieren, recht gut gelungen. Das Buch versteht sich als eine gemeinsame Reise. Die Leserschaft wird zum eigenen Ausprobieren animiert. Doch am Start steht eine wichtige Warnung: Keine personenbezogenen Daten in die KI füttern! Das ist mal eine wichtige Ansage. So sammeln die Autoren gleich Vertrauenspunkte!
Diverse Szenarien
Das Buch gliedert sich in fünf Teile und insgesamt 27 Kapitel. Manche Kapitel sind recht kurzgehalten, das Seitenformat ist übersichtlich, der Umfang mit knappen 200 Seiten nicht überfordernd. Zunächst wird das Feld der KI pointiert kartografiert und Begrifflichkeiten erläutert. Wem das zu knapp erscheint, der kann sich anderweitig vertiefen (KI – es ist nicht drin, was draufsteht). Zudem werden ethisch bedenkliche Aspekte angesprochen wie Verzerrungen und Oberflächlichkeit der KI, die schon von anderen kritisiert wurden (KI: Denken lassen oder selbst denken?). Zum Schluss wird die Stellungnahme des Deutschen Ethikrats referiert.
Im zweiten Teil wird das Thema nun in den Beratungskontext eingeordnet. Aufhorchen lässt die Einschätzung des Autordenduos, dass ein Chatbot derzeit ein systemisches Beratungskonzept nicht umsetzen könne. Ob diese Botschaft auch Gehör findet? Ein Einsatz in Ausbildung und Supervision hingegen erscheint dem Autorenduo schon denkbar. Man könne mittels GenKI Gespräche simulieren und üben, Fallstudien entwickeln, Supervisionsanstöße erhalten oder KI sogar als Lernbegleiter nutzen. Letzteres mache jedoch nur Sinn, siehe die Warnung zu Beginn, mittels eines Custom-GPTs, der auf einen eigenen Trainingsdatensatz zugreift. Womit sich die Frage stellt, wo diese Spezial-KI herkommen soll? Ob das Sinn machen würde, wenn große (Wohlfahrts-)Verbände solche Systeme aufsetzen oder hosten würden? Das fragt man sich als Leser, ohne eine Antwort zu erhalten.
Spannend wird es, wenn die Autoren thematisieren, dass Beratende im Beratungsprozess Ko-Konstrukteure von Wirklichkeit sind. Mit der Einführung einer KI in den Beratungsprozess ergibt sich nach systemischen Verständnis eine Triade. Doch eine KI könne nicht beobachten, sie agiere lediglich auf der Basis von Algorithmen. Beratende müssten daher den KI-Input interpretieren und bewerten. KI könne nur ein Werkzeug sein. – Hier und an anderen Stellen könnte man sich als Leser mehr theoretischen Tiefgang wünschen, den die Arbeits- und auch die Medienpsychologie leicht beisteuern könnten. Andererseits muss der Lesende auch nicht allem dargebotenen „systemischen“ Gedankengut zustimmen. So ist die Bemerkung, systemische Beratung konzentriere sich auf „Wechselwirkungen zwischen Menschen und ihren sozialen Systemen“ doch arg flach. Gleichfalls mag man sich am naiven Gebrauch des Begriffs Prozessberatung stören, der in der systemischen Szene leider Tradition hat.
KI als Weggefährte?
Doch liefert gerade das Kapitel 8 (Künstliche Intelligenz in unserer Beratung) tiefe Einblicke in die Werkstatt des Autorenduos und damit auch Stoff für Diskussionen und Weiterentwicklungen. So wie der sich anschließende Teil 3. Dort werden etliche eigene Experimente mit der KI dargestellt und kommentiert (Vor- und Nachteile). Man kann so dem Autorenduo nicht bloß über die Schulter schauen, sondern wird selbst zu eigenen Experimenten animiert. Bemängelt, das soll nicht verschwiegen werden, wird auch vom Autorenduo die oft erlebte Oberflächlichkeit der KI-Antworten. Teil 4 (Neue Horizonte) überrascht den Leser. Jeder Teil wird, didaktisch geschickt, mit einer Postkarte eröffnet. An dieser Stelle fragt eine Klientin den Berater, ob sie nicht mit seinem Avatar sprechen könne. Da würde sie sich leichter tun zu sprechen … Witzig! Aber eben auch sehr nachdenklich machend. Ansonsten geht es hier noch einmal um professionelle Aspekte wie Kennzeichnungspflichtigkeit beim KI Einsatz, Transparenz und Vertrauen/Akzeptanz.
Der abschließende Teil 5 gibt einen Ausblick und zieht ein vorläufiges Fazit. Etwas provokativ wird ein zukünftiges Szenario durchgespielt, in dem der Beratende mittels Stimm- und Mimikanalyse, die die KI beisteuert, den Beratungsprozess „optimiert“. Die Autoren stellen die Frage, ob man das, was technisch machbar ist, auch umsetzen muss. Das ist in der Tat auch eine ethische Frage, über die es nachzudenken gilt.
Missbrauch
Doch geht es hier nicht bloß um Geschmacksfragen: Die Stimm- und Mimikanalysen sind wissenschaftlich umstritten. Emotionsforscherinnen wie Feldman Barret (Emotionen: Gefühlsduselei vermeiden) warnen davor, weil Emotionen auf diese Weise zu Klischees und Karikaturen degradiert würden. Es würde eine Validität der Analysen suggeriert, die nicht gegeben sei – und verweist auf abstruse Havarien beim Einsatz von Lügendetektoren. So liefert das Autorenduo zum Schluss also (unfreiwillig?) noch ein Paradebeispiel für einen gravierenden Kunstfehler. Man fragt sich, wie wissenschaftlich sattelfest die Mehrheit der Praktiker:innen sein mag. Und gibt sich dann schnell selbst die Antwort: Mit einem Messer kann man Kartoffeln schälen oder jemanden umbringen. Man beginnt zu ahnen, welchen Unfug wir demnächst noch sehen werden. Und selbstverständlich gehört dazu auch, naiv personenbezogene Daten an die KI zu verfüttern. Da könnte man auch mal über das Thema Haftung nachdenken.
Nun, allemal hat das Autorenduo ein schönes Buch geschrieben, das unbedingt seinen Weg in die Praxis finden soll. Sie selbst bemerken, dass die Entwicklung im Bereich KI dermaßen rasant verlaufen, dass ein solches Buch, kaum auf dem Markt, schon überarbeitet werde müsste. Dem ist zuzustimmen. Insofern wünscht man sich gerne eine oder mehrere überarbeitete Neu-Auflagen. Da wäre es dann auch hilfreich, das Thema nicht bloß überwiegend an ChatGPT durchzudeklinieren. Bis dahin kann man das Angebot des Autorenduos annehmen, auf einer eigenen Website zum Buch weiterführendes Material zu sichten.
