Mythen und Fakten über Künstliche Intelligenz

Über Künstliche Intelligenz wird viel geschrieben. Manches erzeugt einen falschen Eindruck und falsche Erwartungen. Hier sind 8 gängige Mythen und ihre Einordnung.

Mythos 1: Künstliche Intelligenz kann jedes Problem lösen

Nein. Machine Learning hat grundsätzlich drei Methoden, wie es aus Daten problemlösende Anwendungen machen kann. Die meisten Erfolge im Bereich der Künstlichen Intelligenz entstehen dadurch, dass Menschen einen Weg finden, Probleme in die Logik eine der drei Methoden zu übersetzen, damit Computer sie lösen können. Dahinter steht oft ein kreativer Prozess von Menschen. Bis jetzt gibt es haufenweise Aufgaben, die noch nicht in eine entsprechende Form gebracht werden konnten. Darüber hinaus kann Machine Learning nur Muster und Regelmäßigkeit entdecken, die in Daten enthalten sind. Wenn in einem Datensatz keine vorhanden sind, kann Machine Learning auch keine finden. Aus diesem Grunde scheitern auch viele Machine Learning Projekte.

Mythos 2: Künstliche Intelligenz ist selbstlernend, lernt daher ohne Kontrolle durch Menschen

Nein. "Selbstlernend" bedeutet im Maschinellen Lernen lediglich, dass es selbstständig aus Daten Regeln ableiten kann, ohne dass Menschen Hinweise auf diese Regeln geben. Der Prozess dazu muss immer durch Menschen gesteuert und konzipiert werden, indem sie die zu lösende Aufgabe definieren, die entsprechenden Daten sammeln und diese Aufbereiten, damit sie durch Machine Learning Methoden verstanden werden können. Das eigenständige Anlernen von Fähigkeiten hinter unserem Rücken ist technisch nicht möglich.

Mythos 3: Künstliche Intelligenz arbeitet als Maschine objektiv und vorurteilsfrei.

Nein. Machine Learning findet Muster und Regeln aus einem begrenzten Datensatz, der ihm im Trainingsprozess gezeigt worden ist. Wenn dieser Datensatz die Realität neutral abbildet, gibt es die Möglichkeit, daraus korrekte Regeln abzuleiten. Wenn ein Datensatz ein verzerrtes Bild der Wirklichkeit enthält, wird Machine Learning daraus auch nur verzerrte Regeln zu ihrer Beschreibung ableiten können. Es ist daher eine der größten Herausforderungen bei der Entwicklung von Modellen diese Neutralität weitgehend sicherzustellen. Es gibt intensive Diskussionen um technische Standards, die dieses Problem lösen sollen. Mit Stand Herbst 2022 werden darüber hinaus auf EU-Ebene auch gesetzliche Regelungen diskutiert, um Künstliche Intelligenzen, die in sensiblen gesellschaftlichen Bereichen angewandt werden, auf diese Neutralität zu verpflichten so weit das technisch möglich ist.

Mythos 4: Künstliche Intelligenz ist unfehlbar und arbeitet fehlerfrei

Nein. Regeln, die aus einzelnen Beispielen und Daten verallgemeinert werden treffen naturgemäß immer nur mit einer gewissen Wahrscheinlichkeit auf die gesamte Realität zu. Ergebnisse von KI-Modellen sind daher immer auch nur mit einer bestimmten Wahrscheinlichkeit korrekt. Das ist damit vergleichbar, dass es bei Meinungsumfragen immer eine Unsicherheit innerhalb einer Schwankungsbreite gibt. Darin unterscheiden sich Künstliche Intelligenz und Sozialwissenschaft von zB der Physik, deren Gesetze immer genau und vorhersagbar gelten. Das bedeutet nicht, dass Künstliche Intelligenz Aufgaben nicht besser lösen kann als Menschen, die ebenfalls Fehler machen. Und viele Modelle arbeiten heute bereits besser als Menschen. Aber das Verständnis, dass KI immer recht hat und durch den Menschen nicht in Frage gestellt werden kann, ist falsch, da jede KI in gewissem Ausmaß auch notwendiger Weise ungenau ist.

Mythos 5: Künstliche Intelligenz ist eine „Black Box“, die Menschen nicht verstehen können.

Das kommt drauf an. Ein KI-Modell besteht aus Regeln in Form einer sehr großen Formel, die auf neue Inputs angewandt wird, um damit ein bestimmtes Ergebnis zu berechnen, auf das das Modell trainiert wurde (zB zu erkennen, welche Objekte auf einem Bild zu sehen sind). Die Formel, nach der diese Entscheidungen getroffen werden, ist bei jedem Modell zu jedem Zeitpunkt zugänglich - zumindest den Entwicklern. Der oft vermittelte Eindruck, sie wären eine „Block Box“, in die man nicht hineinsehen könne, ist daher falsch. Was hingegen stimmt, ist, dass nur bei wenigen Machine Learning Methoden das Zustandekommen der Ergebnisse sinnvoll durch Menschen interpretierbar ist und verstanden werden kann. Es gibt einzelne Machine Learning Methoden wie Entscheidungsbaumverfahren, die ihre Regeln in einer Form ausweisen, aus der für Menschen klar ersichtlich ist, warum ein bestimmter Fall ein konkretes Ergebnis bringt. Insbesondere Neuronale Netze haben derart umfangreiche Modelle, dass wir sie zwar sehen können, aber nicht verstehen. Es wird deshalb intensiv an Methoden geforscht, die das Ziel haben zB durch systematische Tests die Arbeitsweise solcher komplexen KI-Modelle zu beurteilen und sichtbar zu machen. Das bedeutet nicht, dass Künstliche Intelligenz Aufgaben nicht besser lösen kann als Menschen, die ebenfalls Fehler machen. Und viele Modelle arbeiten heute bereits besser als Menschen. Aber das Verständnis, dass KI immer recht hat und durch den Menschen nicht in Frage gestellt werden kann, ist falsch, da jede KI in gewissem Ausmaß auch notwendiger Weise ungenau ist.

Mythos 6: Künstliche Intelligenz arbeitet umso besser, je mehr Daten man ihr zur Verfügung stellt

Das kommt drauf an. Grundsätzlich kann man nicht aus jeder Art von Daten Anwendungen durch Machine Learning entwickeln. Jede Aufgabe benötigt sehr speziell dafür zugeschnittene Daten. Der Entwicklungserfolg und die Qualität der Anwendung hängt danach zuerst einmal von der Qualität der Daten ab - zB ob sie den zu lernenden Sachverhalt umfassend und neutral abbilden. Bezüglich der Datenmenge hat sich bei den meisten Machine Learning Methoden gezeigt, dass es einen Punkt gibt, an dem zusätzliche Daten keinen nennenswerten Zuwachs an Genauigkeit mehr bringen. Die Ausnahme davon sind jedenfalls Neuronale Netze und Deep Learning (daher besonders umfangreiche Neuronale Netze). Sie sind in der Lage besonders große Datenmengen zu verarbeiten und daraus besonders komplexe Zusammenhänge zu erkennen. Dort gilt im Großen und Ganzen noch immer, dass sich aus einer größeren Menge an Daten umfangreichere und genauere Anwendungen entwickeln lassen.

Mythos 7: Künstliche Intelligenzen können ein Selbstbewusstsein entwickeln

Nein. Machine Learning kann immer nur lernen aus Daten zu imitieren, wie Menschen bestimmte Aufgaben lösen. Dass Künstliche Intelligenz eine Wahrnehmung über sich selbst entwickelt und sich selbst autonom Ziele setzt ist technisch heute auch in den fortgeschrittensten Theorien nicht denkbar. Künstliche Intelligenz kann sich nicht außerhalb ihres Codes und Modells entwickeln, da sie technisch noch immer nur ein Programm ist, das algebraische Rechenoperationen ausführt, um durch Imitation menschlichen Verhaltens Aufgaben zu erfüllen.

Mythos 8: Eine KI, die einmal im Einsatz ist, braucht keine Wartung mehr

Das kommt darauf an. Eine KI kann immer nur Dinge vorhersagen, die es beim Training gelernt hat. Solange sich dieser Anwendungsbereich nicht verändert, kann das Modell seine Aufgabe weiter erfüllen. Wenn es darum geht Katzen von Hundebildern zu unterscheiden, wird sich an der Aufgabe lange nichts ändern. Wenn ein Bilderkennungssystem in der industriellen Produktion schadhafte Produkte ausfindig machen soll, muss es bei jeder Änderung der Produktpalette angepasst werden. Gleiches gilt für Nachfrageprognosen, die sich durch Ereignisse wie COVID fundamental verändern können. Entscheiden lässt sich das nur im Einzelfall.