KRITIK: Ein Berater für ethische Risiken im Zusammenhang mit digitalen Technologien erklärt im Harvard Business Manager, wie wichtig es ist, diese Risiken zu identifizieren und offen darüber zu sprechen (Quadratur des Kreises). Einverstanden, kann man da nur sagen. Sollten Manager generell tun, bevor sie eine Entscheidung treffen. Oder mehr noch: Sollten wir Menschen allgemein vor wichtigen Entscheidungen bedenken. Das ist die Geschichte mit den Nebenwirkungen – das Thema haben wir schon oft aufgegriffen (Verschlimmbesserungen).
Erst einmal: Der Autor erkennt bei vielen Unternehmen in Sachen digitaler Technologien die Haltung „Mal sehen, was passiert!“ Was im Falle dieser Technologien besonders kritisch ist, weil diejenigen, die über ihren Einsatz entscheiden, also das Top-Management, nicht wirklich versteht, was genau hinter der Technik steckt. Nebenbei bemerkt: Das verstehen auch viele Experten nicht mehr. Das haben wir alle auch leidvoll erfahren in der Finanzkrise von 2008, wo niemand mehr die komplexen Finanzprodukte durchschaut hat, aber alle mitgemacht haben.
Anzeige:
CYQUEST kombiniert wissenschaftlich-fundiertes psychologisches Know-how mit State-of-the-Art-Webdesign und -Programmierung. Wir sind spezialisiert auf die unternehmens- und hochschulspezifische Erstellung sowie Anpassung von Lösungen aus den Bereichen Online-Assessment, SelfAssessment, Berufsorientierungsverfahren u.a. Zur Webseite...
Bevor er nun eintritt, der ethische Albtraum, würde es sich also anbieten, ihn im Voraus durchzuspielen, Stichwort Worst-Case-Szenarien (Katastrophen durchspielen). Aber da beginnt schon das Problem. Unternehmen tun sich schwer, den Begriff „Ethik“ zu verwenden. Klingt vermutlich nicht modern genug. Oder vielleicht sogar zu anspruchsvoll. Also spricht man von Nachhaltigkeit und meint damit plötzlich viel mehr als nur Wirtschaften im Einklang mit der Umwelt. Man redet von Werten, von Purpose, von Stakeholdermanagement. Aber das sind nur semantische Taschenspielertricks. Letztlich stellt sich immer die Frage: Nutzt das, was wir tun, den Menschen oder schadet es mehr? Wird die Welt dadurch ein wenig besser oder eher nicht?
Gefährliche Blackbox
Welche ethischen Risiken sich in den digitalen Technologien verbergen, zeigt der Autor an den Beispielen Künstliche Intelligenz, Quantencomputing und Blockchain auf. Die größten Gefahren sieht er in der Undurchschaubarkeit der Blackbox-Modelle (mit noch leistungsfähigeren Computern wird niemand mehr erklären können, wie eine „künstliche Intelligenz“ zu einem Ergebnis gekommen ist), in der Diskrimierung bestimmter Gruppen und in der Bedeutung für die Demokratie – Stichwort soziale Medien.
Die Tipps klingen allzu vertraut: Einen Risikoausschuss bzw. eine Ethikkommission, die die Risiken analysiert (und die ethischen Albträume benennt), Machbarkeitsanalysen durchführt, eine Strategie entwickelt und diese dann umsetzt.
Mal angenommen, jedes Unternehmen würde so vorgehen, ehe es sich für den Einsatz einer digitalen Technologie entscheidet – stünde es dann nicht zwangsläufig vor einem dauerhaften Dilemma (Dilemmata-Workshops)? Ich vergleiche das mal mit der Entscheidung für den Bau von Atomkraftwerken – auch eine einst hoch innovative Technologie. Der ethische Albtraum ist inzwischen mehrfach eingetreten. Hätten die damaligen Entscheider ihn klar herausgearbeitet und benannt – wie sähe die Welt heute aus?
Also zurück zu digitalen Techniken: Hätten die Macher von Facebook die ethischen Probleme vorab klar benannt nach dem Motto: „Aufgepasst: Wenn wir diese Technologie auf den Markt bringen, dann kann das dazu führen, dass Menschen sich gegenseitig mit Hass, Falschmeldungen und Hetze überhäufen. Es kann Aufrufen zu Aufständen, zum Völkermord und zur Zerstörung der Demokratie kommen“ – was dann? Stattdessen gab es die Fantasie, dass Menschen sich vernetzen, zu Gemeinschaften zusammenschließen, sich gegenseitig unterstützen, sich informieren unabhängig von Propaganda und Meinungsmanipulation.
Eingetroffen ist beides. So wie uns Atomkraftwerke sowohl mit Strom versorgt haben (und immer noch versorgen) als auch ganz Landschaften zerstört haben.
Was also wird von den Entscheidern verlangt? Klar: Benennt die Gefahren und tut alles, um einen ethischen Albtraum zu verhindern. Wie soll das dann funktionieren? „Wir bauen eine Social Media App, die weltweit junge Menschen nutzen, um sich zu vernetzen, um Videos von sich zu posten und stundenlang am Smartphone zu hängen. Es könnte (ethischer Albtraum!) dazu führen, dass sie manipuliert werden, glauben, was dort gezeigt und erzählt wird, sich minderwertig fühlen und psychisch krank werden. Um das zu verhindern, werden wir (wie auf Zigarettenschachteln) Warnhinweise vor jedem Clip einblenden!“ Ernsthaft?
Ja, es ist wäre wünschenswert, wenn Unternehmen sorgfältig abwägen, welche Gefahren ihre Produkte heraufbeschwören. Und Berater engagieren, die ihnen bei diesen Analysen helfen. Und dann?