Der erste Todesunfall mit einem selbstfahrenden Auto 2016 hatte eine recht banale Ursache: Die Sensoren des Teslas hatten einen weißen LKW mit Wolken verwechselt und das Fahrzeug krachte ungebremst in den vermeintlichen Himmel. Das technische Wunderwerk war Schrott, der Fahrer, der der Technik blind vertraut hatte, tot und der Zweifel an den unbegrenzten Möglichkeiten von Künstlicher Intelligenz (KI) wieder angewachsen. Natürlich knallen auch volltrunkene menschliche Fahrer:innen in LKWs, verunfallen, weil sie mit dem Smartphone während der Fahrt chatten oder treten überforderte Senioren aufs Gas- statt aufs Bremspedal. Bislang hat es jedoch noch kein:e menschliche:r Unfallfahrer:in geschafft, einen LKW mit Wolken zu verwechseln. Frei nach Leo Tolstoi: Alle glücklichen Fahrten sind einander ähnlich, jede unglückliche Fahrt verunglückt auf ihre Weise.
Die rechtlichen, ökonomischen und ethischen Probleme, die im Zusammenhang mit autonomem Fahren auf uns zukommen können, sind zwischenzeitlich in extenso in Fachzeitschriften, Symposien und Leitmedien von Expert:innen verschiedenster Disziplinen und politischer Couleur erörtert worden. Auch die technischen Probleme, die sich den Ingenieur:innen im Zusammenhang mit jedem Unfall stellen, der durch autonomes Fahren entsteht, werden immer gründlicher erforscht. Daher sollte ein derartiger Unfall künftig eher unwahrscheinlich bleiben, da die Ingenieur:innen diese Fehlerquelle nunmehr ausmerzen können.
Allerdings fällt auf, dass die erkenntnistheoretischen Problemstellungen, die sich im Zusammenhang mit dem autonomen Fahren im Besonderen und dem Einsatz von KI in anderen Bereichen im Allgemeinen ergeben, in der wissenschaftlichen und gesellschaftlichen Debatte wenig Beachtung finden. Dabei wären sie von herausgehobener Relevanz, weil sie sich mit dem beschäftigen, was Immanuel Kant als „Bedingungen der Möglichkeiten des Denkens“, also die Voraussetzungen und Grenzen des menschlichen Denkens, in seiner Kritik der reinen Vernunft aufgezeigt hat. Doch welcher wissenschaftliche und gesellschaftliche Mehrwert ließe sich aus der erkenntnistheoretischen Beleuchtung der Fragestellungen rund um KI schöpfen?
Um landläufigen Missverständnissen vorzubeugen: Es geht hier nicht um den menschlichen Verstand als solchen, von dem wir seit René Descartes wissen, dass er insofern bereits gerecht verteilt ist, weil jeder überzeugt ist, genug davon zu haben, sondern um Fragen seiner methodischen Anwendung. Oder, einfacher formuliert, um die Frage, wie wir als Menschen unsere Welt begreifen und ob wir dieses Begreifen auf KI übertragen können.
Seit der Antike bleibt dieses Forschungsfeld jener Teildisziplin der Philosophie vorbehalten, die als „Erkenntnistheorie“ bezeichnet wird. Die Erkenntnistheorie befasst sich mit der Frage, wie Menschen denken und was dem Menschen grundsätzlich denkbar ist. Dadurch unterscheidet sie sich methodisch insofern von anderen Wissenschaftsdisziplinen, als sie nicht nur empirische Wahrscheinlichkeiten, also unser Erfahrungswissen, sondern auch logische Denknotwendigkeit als Grundlage ihrer Aussagen anstrebt. Grundsätzlich gilt dabei, dass Empirie stets aposteriorische und nur die Logik auch apriorische Erkenntnisse zu liefern vermag.
Diese Unterscheidung hat David Hume in seiner Eine Untersuchung über den menschlichen Verstand recht anschaulich verdeutlicht: Eine Person ohne chemisches Vorwissen kann Schießpulver fühlen, schmecken und sehen. Eine andere Eigenschaft dieses unbekannten Pulvers erschließt sich ihr erst dann, wenn sie dieses Pulver mit Feuer in Berührung bringt. Je nach der Pulvermenge könnte es ihre letzte empirische Erfahrung darstellen. Durch dieses Beispiel wollte Hume auf die Grenzen der empirischen Methode verweisen, die nur dann Erkenntnisse haben kann, wenn sie entsprechende vorausgegangene Erfahrungen gemacht hat: Nach dem das erste Pulverfass explodierte, lag für die Überlebenden dieses Experiments die Vermutung nahe, dass sich das Pulver in den anderen Fässern mit hoher – empirischer – Wahrscheinlichkeit in ähnlicher Weise verhalten könnte.
Ganz anders verhält es sich mit dem populären Sterblichkeit-Syllogismus des Aristoteles, der besagt: Wenn alle Menschen sterblich sind und Sokrates ein Mensch ist, dann folgt daraus, dass Sokrates sterblich ist. Dieses aussagenlogische Urteil bleibt richtig, auch wenn es weder Sokrates noch sonstige Menschen geben sollte, da seine Richtigkeit unabhängig von empirischer Erfahrung allein auf logischer Notwendigkeit fußt.
In gewisser Weise entspricht das Tesla-Auto Humes Schießpulver, zeigte sich doch, dass es Eigenschaften enthält, die sich dem Menschen erst nach dem Unfall erschlossen haben. An diesem tragischen Unfall lassen sich die methodischen Defizite der empirischen Vorgehensweise veranschaulichen: Da der Mensch in der Regel nur bedingt in der Lage dazu ist, alle Eventualitäten eines Ereignisses im Blick zu behalten, kann es immer wieder vorkommen, dass dadurch Schäden verursacht werden. Der Volksmund hat dieses methodische Manko auf die fatalistische Formel heruntergebrochen: Hinterher ist man immer schlauer. Wenn also das „Hinterher-Schlausein“ bei einem Fass Schießpulver oder einem Tesla-Auto schon derart gravierende Folgen haben kann, so sollten wir bei der Verwendung der Radioaktivität und in noch höherem Maße beim Einsatz von KI Vorsicht walten lassen. Hier könnte ein errare humanum est zum Nekrolog auf die Menschheit werden.
So betrachtet, ließen sich durch den Rückgriff auf erkenntnistheoretische Methoden beträchtlicher Schaden bereits a priori abwenden – und Ressourcen einsparen. In dem die Bedingungen der Möglichkeiten eines Ereignisses bereits im Vorfeld systematisch analysiert werden, verlieren die Forschenden auch jene Möglichkeiten nicht aus dem Blick, zu denen ihnen bislang keine Erfahrungen vorliegen. Dadurch würden zugleich innovative Aspekte mitgedacht und apriorisch erkennbare Irrtümer vermeidbar, weil der Untersuchungsbereich erheblich größer und um außerhalb der Erfahrung liegende, aber trotzdem denkbare, Alternativen reicher wäre. Zudem könnten Holzwege des Forschens nicht nachträglich durch Trial-and-Error, sondern bereits im Vorfeld ausgesondert und dadurch Forschungsgelder, Umweltressourcen und Manpower eingespart werden.
Auf den Tesla-Unfall übertragen, wäre im Vorfeld eben nicht davon ausgegangen worden, dass sich KI wie ein menschlicher Fahrer verhalten würde. Es wäre unschwer zu erkennen gewesen, dass KI im Gegensatz zu einem Menschen anders „sieht“, anders „hört“ und eben auch anders „reagiert“. Die Prämissen der Mustererkennung, die diesem Fahrzeug einprogrammiert worden waren, waren insofern fehlerhaft, als sie wichtige menschliche Erfahrungen und daraus abgeleitete Verhaltensweisen vorausgesetzt hatten. Vermutlich wäre diese Mustererkennung besser ausgefallen, hätten an ihrem Zustandekommen nicht primär Informatiker mitgewirkt, sondern ein interdisziplinäres Forschungsteam – das eben auch Erkenntnistheoretiker enthält. Eine apriorische Herangehensweise hätte im Gegensatz zu einer Herangehensweise à la Christian Morgenstern nicht den Fehler begangen, dass nicht sein kann, was (erfahrungsgemäß) nicht sein darf. Vielmehr hätte sie alle denkbar möglichen Ursachen und alle darauf denkbar möglichen Reaktionsmöglichkeiten des Fahrzeugs im Blick behalten und somit die Möglichkeit, die weiße Seitenfläche eines LKW mit weißen Wolken zu verwechseln, nicht von vorneherein ausgeschlossen.
Es wäre jetzt falsch, anzunehmen, dass Erkenntnistheoretiker die Allwissenheit gepachtet hätten. Wenn Informatiker:innen und andere mit KI befassten Wissenschaftler:innen dennoch erkenntnistheoretischen Vorbringungen Gehör schenken sollten, dann deshalb, weil die Erkenntnistheorie methodisch Möglichkeiten bietet, die den anderen wissenschaftlichen Disziplinen abgehen. Es ist nicht nur der Blick auf die apriorischen Möglichkeiten eines Ereignisses, sondern es ist das Absehen von empirischer Erfahrung und die dadurch intendierte Allgemeingültigkeit von Aussagen, die den Erkenntnistheoretikern einen Platz am Entscheidungstisch sichern sollte: Auch wenn die Erkenntnistheoretiker:innen weder die kräftigsten Ruderer noch die erfahrensten Seebären stellen sollten, so sind sie doch die besseren Kartenleser:innen und deshalb im Boot unentbehrlich.
Dass Erkenntnistheoretiker:innen heute weniger gefragt werden, liegt nicht zuletzt darin begründet, dass sie einen Großteil ihres methodischen Rüstzeugs im Zuge eines methodischen Paradigmenwechsels selbst eingemottet haben. Dies ist eine Folge des zeitgenössischen Selbstverständnisses von Wissenschaftlichkeit. Ob Natur-, Sozial- oder Geisteswissenschaft – als wissenschaftlich wird primär akzeptiert, was sich empirisch belegen lässt. Für die Philosophie lässt sich dieser Paradigmenwechsel zeitlich exakt einordnen. Er fand um die Jahrhundertwende des vergangenen Jahrhunderts statt und ist eng mit philosophischen Namen wie Bertrand Russell oder Ludwig Wittgenstein verbunden, die der Abkehr von der Begriffslogik hin zu einer mathematischen Logik das Wort redeten. Wenn heute von Erkenntnistheorie gesprochen wird, ist zumeist diese mathematische Logik gemeint, wenn von Philosophie, dann zumeist von Kognitionswissenschaft, Wissenschaftstheorie oder Bereichsphilosophien wie Philosophie der Physik etc. Es ist unter Philosoph:innen längst zur gängigen Praxis geworden, die empirische Erfahrung und die statistische Zahl als mathematisch quantifizierbare Größen dem wohlbedachten Gedanken vorzuziehen.
Die letzte Bastion wider die Empirie stellt die Ethik dar, die so zum letzten Refugium originär philosophischen Denkens geworden ist. Doch hat die Philosophie über dieses nicht-empirische Feigenblatt hinaus wissenschaftlich erheblich bedeutsameres im Portfolio, nämlich die Erkenntnistheorie, sofern sie sich methodisch derer Historie erinnerte.
Wenn die philosophische Ethik also die moralischen Folgen möglicher Schädigungen durch KI gesteuerte Fahrzeuge zu erörtern vermag, bevor sie eingetreten sind, so wäre die Erkenntnistheorie in der Lage, die Möglichkeiten von Schäden durch selbstfahrende Fahrzeuge zu bedenken, also a priori auch jene Eventualitäten zu berücksichtigen, deren Wahrscheinlichkeit außerhalb dem gegenwärtigen Erfahrungsstand der Ingenieur:innen und Informatiker:innen liegt, die das Fahrzeug anfertigen.
Die Tesla-Entwickler:innen hatten ihrem Auto beigebracht, größere weiße Flächen oberhalb einer definierten Horizontlinie als zu ignorierendes Objekt zu klassifizieren. Aus menschlicher Sicht nachvollziehbar, da derlei weiße Objekte normalerweise Wolken und nicht als Hindernisse zu beachten sind. Dabei ist es ihnen nicht in den Sinn gekommen, dass ein weißer LKW vor dem Hintergrund einer weißen Wolke für einen Teil dieser Wolke angesehen werden könnte. Warum? Weil jedem Kleinkind diese Gleichsetzung völlig absurd vorkäme. Woran liegt das?
Das, was Tesla-Fahrzeug vom Kleinkind unterscheidet, ist der Unterschied zwischen Rechnen und Denken. Ganz einfach gesprochen besteht er darin, dass das Rechnen ein in sich geschlossenes abstraktes System darstellt, das keinen Bezug zur realen Welt aufweist: Beim Rechnen wird entsprechend der Vorgaben definierter Operatoren mit Zahlen hantiert – eine Rechnung kann nichts enthalten, was nicht bereits in den Prämissen als Zahl oder logischer Operator bereits gegeben wäre, das Rechnen ist abstrakt, also losgelöst von der menschlichen Lebewelt. Dahingegen hat das Denken stets das im Blick, was die Scholastiker vor rund tausend Jahren als „adaequatio rei et intellectus“, d. h. die Übereinstimmung zwischen Sache und Verstand, bezeichnet haben – menschliches Denken findet nicht in der leeren Abstraktion, sondern in der konkreten Raum-Zeitlichkeit menschlicher Existenz statt.
Weil im Tesla verbaute KI – wie im Übrigen jede KI – nur rechnet, das heißt vorgegebene Begriffe in mathematische Sachverhalte transferiert und nach mathematischen Regeln berechnet, bleiben diese Rechenergebnisse ohne Bezug zur realen Wirklichkeit des Straßenverkehrs: Der Straßenverkehr wird zu einem abstrakten Algorithmus komplexer Wenn-Dann-Beziehungen ohne Realitätsbezug.
Das Kleinkind beginnt seine ersten Denkschritte damit, dass es jede Information, die es aus seiner Umwelt aufnimmt und verarbeitet, denkend an diese Umwelt rückkoppelt. Erst diese Rückkopplung ermöglicht menschliches Lernen, da das Kind die Reaktion der Umwelt auf seine Aktion hin bedenkt und dadurch in einem permanenten Austausch mit dieser Umwelt bleibt. Wenn also die Intelligenz von Kindern (und natürlich auch von Erwachsenen) gemessen wird, so wird letztlich geprüft, inwieweit das Kind aufgrund dieses rückgekoppelten Lernprozesses in der Lage ist, auf Gegebenheiten seiner Umwelt adäquat zu reagieren. Daher ist eine menschliche Intelligenz ohne Weltbezug kaum denkbar, der denkende Mensch denkt (sich) in seiner Welt.
Wenn also jedes Kleinkind im Gegensatz zum hochentwickelten autonomen Fahrzeug in der Lage ist, mit Selbstverständlichkeit LKW und Wolke zu unterscheiden, so liegt das daran, dass das Kind im Gegensatz zu KI zu denken vermag. Allgemein ließe sich daraus die Folgerung ableiten, dass grundsätzlich bei der Entwicklung von KI und dem Bedenken ihrer möglichen Folgen nicht nur gerechnet werden sollte.
Eine Philosophie und eine Erkenntnistheorie, die sich auf die Möglichkeiten rückbesinnt, die das Denken im Gegensatz zum Rechnen zu bieten vermag, wäre sicherlich ein Gewinn auch für andere wissenschaftliche Disziplinen – und nicht nur die Tesla-Entwickler:innen.