INSPIRATION: Künstliche Intelligenz ist in aller Munde. Für die einen wird sie die Welt retten, für die anderen den Menschen überflüssig machen. Nur selten wird darüber diskutiert, was unter dem Begriff verstanden wird. Tatsächlich gibt es so etwas wie künstliche Intelligenz gar nicht. Was übrigens schon daran liegt, dass die Definition von Intelligenz schon bei menschlicher Intelligenz strittig ist, letztlich gibt es etliche davon.
In der wirtschaft + weiterbildung erklärt eine Informatikerin, warum wir uns keineswegs verrückt machen sollten (Keine Angst vor künstlicher Intelligenz). Vor allem macht sie deutlich, wie wichtig es ist, sich über Begrifflichkeiten klar zu werden, damit wir bei der Diskussion über die gleichen Dinge reden.
Anzeige:
logic systems versteht sich als IT-Unternehmensberatung mit dem Schwerpunkt auf der Entwicklung betriebswirtschaftlicher Softwarelösungen. Seit 1993 ist die Entwicklung von PC-gestützten Unternehmensplanspielen eine der Kernkompetenzen des Unternehmens. Zur Webseite...
So am Beispiel „Algorithmus“. Was ist gemeint, wenn jemand behauptet, die Algorithmen werden immer schlauer? Das nämlich ist ziemlicher Unsinn. Ein Algorithmus ist nichts anderes als eine Handlungsanleitung. Und diese wird vom Menschen, in diesem Fall vom Programmierer, erstellt.
Der Algorithmus, wo jeder mit muss
Ein schönes Beispiel ist ein Kuchenrezept. Sie müssen nur mal ein beliebiges Kochbuch aufschlagen und ein Backrezept heraussuchen. Keine Maschine der Welt könnte danach backen. Sie kann mit Zirka-Angaben nichts anfangen, weiß nicht, wie weich weiche Butter ist und braucht eine Anweisung, wie man Eier trennt.
Es gibt also nur präsise und gut formulierte Algorithmen, und ob sie gut oder wenig gut formuliert sind, hängt vom Menschen ab. Sie sind so schlau oder dumm wie dieser und enthalten all seine Stereotype und Vorurteile. Was wir wissen sollten, wenn wir sie nutzen, statt anzunehmen, sie handelten objektiv und korrekt. Auch eine interessante Feststellung: Wenn wir von „schlauen“ Algorithmen sprechen, dann geben wir Maschinen menschliche Eigenschaften, das allein führt schon in die Irre.
Und wie sieht es mit der künstlichen Intelligenz aus? Hier wäre es besser, von machinellem Lernen zu sprechen. Das ist schon etwas komplizierter. Maschinen lernen nämlich nicht wirklich allein. In dem Beitrag wird dies am Beispiel der Bilderkennung demonstriert. Hier müssen immer wieder Menschen eingreifen, bei Fehlern korrigieren, neue Daten eingeben, wieder Fehler machen lassen usw. Dann kann der Rechner schließlich Muffins von Chihuahua-Bildern unterscheiden mit einer Fehlerquote von unter vier Prozent. Menschen liegen bei ca. 5%. Ist der Rechner nun intelligenter als der Mensch?
Maschinelles Lernen
Noch interessanter ist die Frage, mit welcher Fehlerquote wir leben können, denn das hängt ja von der Anwendung ab. Leisten wir uns bei der Terrorbekämpfung in Sachen Gesichtserkennung eine Fehlerrate von drei Prozent? Auf jeden Fall haben wir es bei diesen Maschinen nicht mit intelligenten Wesen zu tun, sondern maximal mit nützlichen „Fachidioten“.
Es gibt noch eine andere Art maschinellen Lernens. Das ist diejenige, bei denen Maschinen aus ihrem eigenen Erfolg lernen. Ganz einfach ausgedrückt: Ein Rechner spielt gegen sich selbst Go, errechnet, mit welchen Zügen er die besseren Chancen zu gewinnen hat und wird so immer besser – beim Go-Spielen versteht sich. Das ist dank seiner enormen Rechenkapazität möglich. Hier würde Stephanie Borgert höchstens von mathematischer Intelligenz sprechen.
Müssen wir uns vor diesen Maschinen fürchten? Sie meint, auf keinen Fall. Außer beim Sprachübersetzungsprogramm oder bei der Bilderkennung hat sie noch keine wirklich nützlichen Fortschritte erlebt, und was den Hype um Chatbots, die in der Lage sind, Menschen zu coachen, angeht: Da ist von echtem Coaching noch lange nichts zu sehen.
So viel scheint mir sicher: Als inspirierenden Lehrer werden uns künstliche Wesen wohl nie dienen. Diese nämlich, so der verstorbene Stephen Hawking, war davon überzeugt, dass eine außergewöhnliche Persönlichkeit immer auf einen außergewöhnlichen Lehrer zurückzuführen sei („Man muss große Fragen stellen“). Das werden Roboter sicher nie sein.