Ist es möglich, einen Roboter mit freiem Willen zu konstruieren?
Ein Roboter sieht zwei Autos nach einem Zusammenstoß in einen Fluss stürzen und überlegt, welchen der noch lebenden Insassen er zuerst retten sollte – das Mädchen oder den erwachsenen Mann. Im Film „I, Robot“ entscheidet sich der Roboter nach einer Analyse der Überlebenschancen für den Mann.
Diese Entscheidungsmethode ist programmiert und nicht frei. Doch in der Natur gibt es auch Zufall. Als stochastisch beschreiben Physiker die Prozesse, die wahrscheinlich, aber nicht zwangsläufig sind. So kann ein radioaktives Atom zerfallen und Strahlung aussenden, doch es kann damit auch warten. Physiker können nur ermitteln, wie schnell die radioaktiven Atome im Durchschnitt zerfallen. Diesen Zufall könnte man sich zu Nutze machen und einen Roboter bauen, der zufällig Erinnerungen kombiniert.
Der Roboter hätte dann auch anders handeln können. Der Roboter hätte auch in seinem Datenspeicher kramen können. Allerhand Bilder wären dann aufgetaucht und die meisten hätten ihm nicht weitergeholfen. Vielleicht aber hätte er sich an das Spielzeugauto erinnert, das er vor Jahren für ein Kind aus dem Fluss geholt hat und wofür er von den Eltern gelobt wurde. Dann könnte er auf die Idee kommen, dass er für die Rettung des Kindes mehr Lob erhalten würde, obwohl er darauf nicht programmiert ist. (Text von Alexander Mäder)
Der Kommentar von Tine Melzer
Solchen Gedankenexperimenten zu künstlicher Intelligenz und Ethik liegen oft utilitaristische Konzepte zugrunde. Bei dieser, dem Pragmatismus angehörigen, philosophischen Strömung steht die Annahme zentral, dass Entscheidungen und deren Wirkungen ‘absolut’ messbar und vergleichbar sein können. Dazu sucht man Lösungsansätze, bei denen ‘der größtmögliche Nutzen der größtmöglichen Zahl’ von Menschen angestrebt wird. Wer muss zuerst gerettet werden? Das Kind oder der Mann? Die Kranke, die Schwangere, das Baby? Ein selbstfahrendes Auto würde also nach blitzschneller utilitaristischer Abwägung den 100-jährigen Spaziergänger überfahren, anstatt in eine Schulklasse zu rasen. Gedankenspiele wie die Programmierung eines Roboters (oder eines selbstfahrenden Autos o.ä.) in einem solchen Dilemma faszinieren uns, weil wir noch relativ unerfahren mit künstlicher Intelligenz sind und weil Maschinen keine Menschen sind. Die Sachlichkeit solcher ‘Berechnungen’ reizen uns auch, weil wir sie als unanständig wahrnehmen können.
Irrationalität, Impulsivität oder Intuition können Menschen selber produzieren. Von Maschinen erhoffen sich viele user vielleicht, ethische Fragen auf sie auslagern zu können, um sie ‘ein für allemal’, universell und zeitlos beantwortet zu haben. Gute und richtige Entscheidungen verlangen uns ab, Bedeutungen im Kontext passend zu interpretieren. Auch wenn es möglich wäre, Roboter aufgrund der schieren Datenmenge ‘zufällige’ Handlungen ausführen zu lassen, haben wir die Grundfragen der Ethik des einzelnen Falles noch nicht gelöst. Zwischen zufälligem Handlungsmuster und ‘freien Willen’ liegt ein großes Spektrum; und auch der ‘freie Wille’ wurde in der Philosophie nicht abschließend erkannt, beschrieben oder nachgewiesen. Je nach Datenmenge und Rechenleistung ist es also durchaus denkbar, einen Roboter mit ‘freiem’ Willen zu konstruieren, weil dessen ‘Entscheidungen’ unvorhersehbar sind. Dringende ethische Fragen des Menschen sind damit nicht beantwortet. Und das selbstfahrende Auto würde also ‘zufällig’ Passanten überfahren, ganz so, wie in menschengemachten Verkehrsunfällen auch.
Der Kommentar von Simone Gretler Heusser
Aus meiner Sicht ist die interessantere Frage: soll man oder will man oder muss man einen Roboter mit freiem Willen bauen?
Denn technologisch ist fast alles möglich, und was heute noch nicht klappt, geht morgen selbstverständlich. So genannte künstliche Intelligenz kann heute etwas besser als Menschen: sie kann ganz schnell ganz viele Daten «checken». Das ist z.B. beim Vergleich von Röntgenbildern mit eventuellen Tumoren hilfreich.
Beim Beispiel mit dem in den Fluss gefallenen Auto hilft die Menge jedoch nicht weiter. Hier geht es um eine ethische Frage. In den bisherigen Entwicklungen der Robotik hinkt die ethische Reife den technologischen Möglichkeiten hinterher, und das ist fatal. Die ethischen Fragen sollten zuerst, nicht zuletzt gefragt werden. Denn Roboter sollen uns Menschen helfen und nützen.
Das Beispiel mit dem Auto, welches in einen Fluss fällt, zeigt dies gut. Warum sollte man nicht das Auto aus dem Fluss holen können und damit beide Menschen darin retten?