INSPIRATION: Zwei Ansätze, wie der Einsatz künstlicher Intelligenz einer Mediatorin helfen könnte, haben wir bereits vorstellt (Zusätzliche Informationen und Unterstützung im Konflikt). Auch mit der Idee, die KI einen Vorschlag zur Lösung machen zu lassen, haben wir uns schon beschäftigt (KI als Mediator?). Genau um diesen Ansatz geht es hier auch noch einmal. In der Zeitschrift für Konfliktmanagement erklärt Alica Mohnert, warum sie davon nicht allzu viel hält (Überlegungen zur Akzeptanz KI-generierter Vergleichsvorschläge aus psychologischer Sicht). Auch wenn es verständlich sei, dass „das Aufkommen neuer Technologien einen Schub frischer Hoffnung gibt“.
Wäre ja auch zu schön: Da streiten sich zwei Parteien, und nach Sammlung aller notwendigen Informationen erstellt die KI einen Vergleichsvorschlag auf Basis ähnlich gelagerter Fälle. Sollte sie ja können, zumal sie vermutlich auf viel mehr Fälle zugreifen kann als das ein Mediator jemals könnte. Als Resultat kann sie dann auch noch ausspucken, wie ein richterliches Urteil ausfallen würde, wenn man sich nicht einigt – so erspart sie auch noch eine Menge Verfahrenskosten.
Anzeige:
Die Arbeitswelt braucht agile Coachs, um Selbstorganisation, Innovation und neues Rollenverständnis zu implementieren. Die Neuerscheinung „Agiler Coach: Skills und Tools“ liefert für jeden agilen Coach eine beeindruckende Bandbreite an Grundlagen, Methoden und Werkzeugen für die Team- und Mitarbeiterentwicklung im agilen Arbeitsalltag. Zum Buch...
Was dagegen einzuwenden ist?
Zunächst einmal: Selbst gute Programme „halluzinieren“ immer noch 20-30% falsche Antworten, die aber mitunter sehr plausibel erscheinen. Sie erfindet zum Beispiel vermeintliche Präzedenzfälle, die täuschend echt klingen. Um diese auszuschließen, müsste man die Fälle manuell kontrollieren, was den Einsatz schon wieder wenig attraktiv macht. Eine solche Kontrolle werden sich die meisten ersparen. Auch wenn die Fehlerquote in Zukunft sinken sollte – die Tatsache, dass solche Fehler passieren, wird Misstrauen erzeugen.
Nicht nur das Halluzinieren stellt ein Problem dar, auch besteht die Gefahr, dass es zu diskriminierenden Verzerrungen kommt. Es kann sein, dass bestimmte Konstellationen in den Daten überrepräsentiert sind – Geschlechterverteilungen oder Minderheiten zum Beispiel.
Fehlendes Vertrauen
Damit kommt der nächste Einwand zum Tragen: Niemand wird nachvollziehen können, wie eine KI zu einem bestimmten Vorschlag kommt – und diese Intransparenz wird zum Problem. Eine Partei, die sich zu wenig berücksichtigt fühlt und das Zustandekommen nicht nachvollziehen kann, wird sich schwer tun, dem Vorschlag zu folgen. Damit wird der Einsatz einer KI eher hinderlich sein, denn bei der „menschlichen“ Mediation sind beide Parteien von Anfang an dem Prozess beteiligt, sie erleben im besten Fall, dass ihre Bedürfnisse ausreichend gehört und berücksichtigt wurden.
Und schließlich: Wie jeder, der sich etwas ausgiebiger mit Konflikten auseinander gesetzt hat, weiß, kommt es den Menschen gar nicht so sehr auf die beste Lösung an. Vielfach ist man am Ende sehr erstaunt über die Einigung, die so völlig dem zu widersprechen scheint, was am Anfang als Forderung im Raum stand. Menschen wollen Menschlichkeit und gute Behandlung, sie wollen Gehör finden und und sind zu manchem Zugeständnis bereit, wenn sie sich angemessen behandelt fühlen. Der Einsatz einer KI würde die Beziehungsseite vernachlässigen, die Schieflage auf der Beziehungsseite wird durch einen Schlichtungsvorschlag allein nicht beseitigt.
„KI und Menschen passen einfach nicht zusammen. Also nicht immer.“ (Und wer bringt den Müll raus?). Im Mediationsverfahren dürfte das stimmen.