INSPIRATION: Die einen spielen mit KI herum und werden immer vertrauter damit. Die anderen halten sich zurück. Wie finden wir einen guten Umgang mit KI? Bei Licht betrachtet, geht es um existenzielle Fragen, um die wir uns nicht drücken dürfen.
Wenn wir über KI reden, sollte klar sein: Künstliche Intelligenz ist weder künstlich noch intelligent, wie Hans Rusinek (Neuer Arbeitsethos) es so schön auf den Punkt bringt: „nicht künstlich, weil die zugrundeliegenden Datensätze von Menschen stammen, mit allen Verzerrungen, die dabei entstehen. Nicht intelligent, weil diese Datensätze rein mit Mechanismen der Statistik aufbereitet werden.“
Anzeige:
CYQUEST kombiniert wissenschaftlich-fundiertes psychologisches Know-how mit State-of-the-Art-Webdesign und -Programmierung. Wir sind spezialisiert auf die unternehmens- und hochschulspezifische Erstellung sowie Anpassung von Lösungen aus den Bereichen Online-Assessment, SelfAssessment, Berufsorientierungsverfahren u.a. Zur Webseite...
Doch „im Kern sprengt diese Art von KI unsere Vorstellungskraft,“ meint Autorin Doris Weßels (Immer schön auf Sicht fahren). Sie ist Wirtschaftsinformatikerin, Hochschulprofessorin und in der Öffentlichkeit präsente KI-Expertin. Die Multimodalität – das Ding kann sprechen! – und gibt vor, alles Mögliche zu wissen und zu können („Tausendsassa-Funktionalität“), fasziniert – und erschreckt zugleich.
KI polarisiert und spaltet
Im Unternehmen verläuft die Front zwischen unten und dem Mittelmanagement. „Der Einsatz von ChatGPT war und ist bis heute an vielen Stellen eine Bottom-Up-Bewegung in den Organisationen. Aus der Not heraus hat sich die Basis irgendwie gekümmert.“ In der Ebene darüber spürt sie „bis heute große Überforderung, Unkenntnis und mitunter auch tragische Missverständnisse dieser Technologie.“
Und schon hat die Autorin eine Erklärung parat: German Angst. Hierzulande neige man dazu, erst einmal die Risiken zu diskutieren, ehe man sich mit den Chancen beschäftigen mag. Kulturforscher Geert Hofstede nannte diesen Kulturstandard „Unsicherheitsvermeidung“. Nur komisch, dass die einen mehr, die anderen weniger Angst haben …
Es droht eine Kluft
Die einen spielen mit KI herum und werden immer vertrauter damit. Die anderen halten sich zurück. Gleich fällt mir das alte Beispiel aus den 1990er-Jahren ein, als sich Führungskräfte vom Sekretariat E-Mails ausdrucken ließen. Aber man könnte auch noch an eine andere Kluft denken. In den 1970er-Jahren wurde die sog. Wissensklufthypothese populär. Medienpsychologen vermuteten, dass der Wissenserwerb von der sozialen Schicht abhängig sei. Mitglieder höherer sozialen Schichten sollten schneller durch Medien schlau werden und die unteren sozialen Schichten würden abgehangen. Durch vermehrten Medienkonsum würde das Bildungsdefizit (genannt: Wissenskluft) immer größer.
Na ja, passt das in unsere aktuelle Landschaft? Nicht so richtig. Und die Theorie hat auch damals nicht so richtig gepasst, weil sie viel zu platt war: Hier die ewig in die Glotze schauenden und ansonsten höchstens einmal bildzeitungslesenden Proleten. Dort die bücherlesenden Bessergestellten … Dann dreht man das Thema lieber und hängt es am Faktor Alter auf (Digital Natives). Doch auch diese Diskussion ist viel zu platt, wie wir längst wissen (Mit dem Hammer behauen).
Autorin Weßels hat den Faktor Hierarchiestufe als berühmten „Unterschied, der einen Unterschied macht“ (Bateson) im Verdacht: „Führungskräfte sind bei KI überfordert. Aber sie schämen sich, nach außen zu gehen, vor die Belegschaft zu treten und zu sagen: ‚Tut mir leid, aber ich verstehe es auch nicht, ich habe das nie gelernt, und ich traue mich da auch nicht ran.‘“ Es hängt am nicht mehr zeitgemäßen Rollenverständnis einer fachkompetenten Führungskraft. Tja, ob man das so pauschal sagen kann? Sie selbst meint, dass ganz oben eher Euphorie herrsche: KI als Killer-Application im Business. Sollte man da nicht mal etwas empirische Sozialforschung investieren, ehe man solche Thesen drischt? Weßels predigt natürlich das Übliche: Weiterbildung! Wie unverfänglich.
Von hinten durch die Brust ins Auge
Niels Van Quaquebeke, Psychologe und Professor für Führung und Organisationspsychologie, hat da eine spannendere Perspektive zu bieten (Entscheidungen neu denken). Und das Interview mit ihm ähnelt einem Fosbury-Flop: Von hinten durch die Brust ins Auge. Zunächst geht es nämlich um den Unterschied zwischen Lösungen und Entscheidungen. Wer da in Erwartung einer philosophischen Spitzfindigkeit das Gähnen beginnen wollte, wird schlagartig wach: KI kann uns beim Lösen helfen. Weil es ein probalistisches Modell ist, es basiert auch Wahrscheinlichkeitsrechnung. Das sollte man wissen. Und KI-Ergebnisse nicht für bare Münze nehmen. Wozu offensichtlich nicht wenige neigen.
Der Autor bringt ein Beispiel: Bei kaum belastbarer Datenlage errechnet die KI für Lösung A 49 Prozent und für Lösung B 51 Prozent Wahrscheinlichkeit. Sie wird dem Nutzenden Lösung B kommunizieren – und die Wahl nebst Wahrscheinlichkeiten nicht weiter erwähnen. Wer als Anwender also bloß auf sein Dashboard schaut und glaubt, „Wenn die KI das sagt, wird es wohl stimmen“, kann gehörigen Unfug anrichten. Und die Befürchtung, dass uns solches demnächst vermehrt widerfährt, scheint nicht aus der Luft gegriffen zu sein. Im Gegenteil: Ich vermute, das werden wir demnächst häufiger erleben. Das mit dem Unfug: „The map is not the territory,“ dichtete weiland schon Alfred Korzybski.
Ausgetrickst!
Reingefallen und es noch nicht einmal gemerkt. Das will nicht jeder hören. Das wollen vielleicht auch Führungskräfte nicht gerne hören, die denken, mit KI könne man „mal eben“ Manpower einsparen und die Produktivität erhöhen. Van Quaquebeke verweist auf eine üble Falle in der naiven Anwendung von KI. Wir verlernen, wenn wir nicht aufpassen, das Abwägen und Diskutieren im sozialen Gefüge. Womit wir beim Thema Entscheiden wären.
„Es geht nicht um Gewissheit, denn die ist auch nach einer Entscheidung nicht da, sondern um geschlossenes Commitment oder mindestens Compliance, einen bestimmten Weg trotz Unsicherheit zu gehen.“ Was für ein folgenreicher Satz! Offenbar entscheiden heute viele Sachen, die sie auch lösen, also berechnen könnten. Weil ihnen die Zeit fehlt oder Lust und Können. Solches wird KI immer besser übernehmen können.
Nur Ungewissheiten kann man entscheiden
Es gibt aber Sachen, die kann man nicht berechnen, die muss man entscheiden – beispielsweise ein Investment in die Zukunft, einen Lebenspartner, Kinder … Überlässt man das einer Maschine, lässt man Fünfe gerade sein. Weil man Wahrscheinlichkeiten mit Gewissheiten verwechselt. Und man stiehlt sich aus der Verantwortung. Womit wir wieder beim sozialen Gefüge wäre. Wer Menschen für berechenbar hält, macht sie zum Ding. Er entmenschlicht sie. Stiehlt ihnen Würde und Freiheit.
Da fällt mir doch glatt ein wahnsinnig-schönes Buch ein: Der Mann, der seine Frau mit dem Hut verwechselte (Oliver Sacks). Mit Maschinen kann man nicht diskutieren. Sie haben immer recht. Denen ist auch egal, ob sie geliebt oder gehasst werden. „Woran wachsen wir dann? Wie wachsen wir über uns hinaus? Dazu braucht es Hürden und Konflikte.“ Der Autor wirft existenzielle Fragen auf, was mich an ein weiteres Buch erinnert: Und ewig lockt die KI. Und das ist gut so.