INSPIRATION: Beiträge von Juristen lese ich nicht so gerne. Das geht vermutlich vielen Zeitgenossen so. Aber dieser Text ist außergewöhnlich und definitiv lesenswert. Der Autor Peter Wedde (Die Berechnung der Belegschaft) beginnt mit einem harmlosen Statement, das sich binnen weniger Zeilen zu einem flammenden Fanal entwickelt: „Die individuelle Arbeitsleistung von Menschen wird ständig in Zahlen gemessen.“ Soweit die Binse. Doch nun kommt die Digitalisierung ins Spiel: Mit ihrer Hilfe lässt sich der Umfang der Datensammlung sowie der Detaillierungsgrad in einem Ausmaß skalieren, dass der olle Ford seine Freude daran gehabt hätte. Und mehr noch: Es lässt sich auch das Kommunikationsverhalten in einem Ausmaß verfolgen und dokumentieren, dass Huxleys „Brave New Word“ dagegen wie ein Kindergeburtstag aussieht. Weil eben die Digitalisierung immer weitere Bereiche unserer Lebenswelt kolonisiert – und leider zu oft als Technosolutionism missinterpretiert wird: Es wird alles gemacht, was technisch geht, ohne angemessen zu reflektieren, was das für Menschen bedeutet.
Der gläserne Mitarbeiter
„In der digitalen Arbeitswelt haben die Beschäftigten scheinbar die Kontrolle über ihre Daten verloren. Vor der datenschutzrechtlich geforderten ‚Transparenz der Verarbeitung‘ kann oft nicht mehr die Rede sein. Dies gilt insbesondere, wenn Software aus dem Bereich der ‚künstlichen Intelligenz‘ (KI) eingesetzt wird.“ Hinzu kommt die Menge an personenbezogenen Informationen, die sich in betrieblichen Social Networks befinden – man denke nur an Yammer, Sharepoint & Co., die in vielen Unternehmen eingesetzt werden, oder an Zoom, Teams und Konsorten. Ein El Dorado für Datenanalysten. Wird Software aus demselben Anbieterhaus benutzt – der Autor illustriert dies am Beispiel Viva-Insights von Microsoft – sind die Hürden gering: die Mitarbeiterin wird gläsern.
Anzeige:
CYQUEST kombiniert wissenschaftlich-fundiertes psychologisches Know-how mit State-of-the-Art-Webdesign und -Programmierung. Wir sind spezialisiert auf die unternehmens- und hochschulspezifische Erstellung sowie Anpassung von Lösungen aus den Bereichen Online-Assessment, SelfAssessment, Berufsorientierungsverfahren u.a. Zur Webseite...
Der Einsatz solcher Technologie kann auch für Mitarbeiter hilfreich sein. Doch der Autor offenbart, dass diese zumeist nur die Spitze des Eisbergs sehen und nicht, was sich in den Tiefen des Maschinenraums tut: Es werden dort „alle vorhandenen oder zugänglichen Daten für die Nutzer nicht sichtbar in sogenannten innerbetrieblichen sozialen Graphen (Enterprise Social Graphs) permanent erfasst, aufbereitet und für weitergehende Analysen vorgehalten.“ Man möge nun nicht erwidern, man hätte nichts zu verbergen. Denn man ahnt gar nicht, welches Bild mittels Netzwerkanalyse (Den Eisberg lupfen) von einem so gezeichnet wird oder werden kann.
Persönlichkeitsrechte
Jetzt könnten die Mitarbeiter:innen sich wehren und die Arbeit mit solcher Software ablehnen. Doch das wäre Arbeitsverweigerung. Man riskiert also seinen Job, obwohl die juristische Einschätzung unmissverständlich besagt, „dass eine permanente und umfassende Verarbeitung aller anfallenden Beschäftigtendaten weder datenschutzrechtlich noch arbeitsrechtlich zulässig ist.“ Es wird gegen Artikel 5, Absatz 1 der DSGVO verstoßen. Mehr noch, man hat die ständige Rechtsprechung des Bundesarbeitsgerichts und des Bundesverfassungsgerichts auf seiner Seite: Der Eingriff in die Persönlichkeitsrechte der Beschäftigten ist unzulässig.
Aber es fehlen bislang einschlägige Gerichtsentscheidungen oder belastbare Feststellungen der zuständigen datenschutzrechtlichen Aufsichtsbehörden zur Verwendung von innerbetrieblichen sozialen Graphen. Hier könnte man folglich Rechtsgeschichte schreiben. Doch das dürfte ein Einzelner ohne Unterstützung kaum durchhalten.
Und die Kehrseite
Der Autor wechselt an dieser Stelle die Perspektive und stellt die pragmatische Frage, ob das Machbare auch gut und hilfreich ist. Gibt es Risiken und Nebenwirkungen der Datenanalyse, über die sich auch die Unternehmen noch wenig Gedanken gemacht haben? Will man der KI trauen, auch wenn man nicht nachvollziehen kann, wie sie zu ihren Schlüssen kommt? Was wäre, wenn die KI verheerende Fehlschlüsse produziert? Wir kennen solches schon aus dem Einsatz von KI in der Personalauswahl. Hier ist es schon zu gravierenden Diskriminierungen und Fehlentscheidungen gekommen.
Mitarbeiterinnen, die sich ausspioniert fühlen, könnten die Lust am Job verlieren und kündigen. Der Arbeitsmarkt ist leergefegt, sie finden schnell etwas Neues. Die Unternehmen würden sich ins eigene Fleisch schneiden. Oder man stelle sich bloß vor, die Datenschutzbehörde steht vor der Tür und zum Schluss hagelt es dann ein fettes DSGVO-Bußgeld. Die Datensammlung aus dem eigenen Unternehmen könnte auch zufälligerweise bei Wettbewerber landen. Oder der Softwaregigant nutzt die Daten für eigene (unbekannte) Zwecke. Das Resümee des Autors ist eine rhetorische Frage: Welches Unternehmen kann sich solche Fahrlässigkeit erlauben?