Café Philo Thun: Nachahmen und Enttarnen

Im Ergänzungsfach Philosophie schrieben Schüler:innen im Anschluss an die Projektwoche in Lugano einen Essay zum Thema «Philosophie des Geistes & Science-fiction».

     

    Website

    Text und Skizze Teaserbild Nola Meier, 23gS

     

    Lesen Sie als Illustration des Unterrichtsprojekts den Text von Nola Meier (23gS).  Sein Text verblüfft durch eine eigenständige und fokussierte Argumentation entlang des klassischen Gedankenexperiments von Alan Turing. Auffälligerweise tilgt der Autor jegliche persönliche und literarische Dimension im Text und suggeriert damit, dass die prägnante Argumentation ein reinrassiges Produkt artifiziellen Philosophierens sein könnte. (Niklaus Schefer)

    Im Turing-Test oder Imitation Game von Alan Turing sind drei Spieler:innen involviert. Spieler:in A ist ein Computer. Spieler:in B ist ein Mensch und Spieler:in C ist Verhörer:in. Der/die Verhörer:in muss mit Hilfe von schriftlichen Fragen herausfinden, welcher der beiden Spieler:innen ein Computer ist. Wenn der/die Verhörer:in nicht den Computer zu enttarnen vermag, dann hat der Computer den Turing-Test bestanden.

    Aber was sagt das nun über den Computer aus, wenn er den Turing-Test besteht?  Die Antwort verbirgt sich bereits im Namen. Denn Imitation Game heisst so viel wie Nachahmungstest. Wenn der Computer den Test bestanden hat, dann hat er menschliches Denken und Sprechen besser oder gleich gut nachgeahmt wie Spieler:in B. Ob der Computer denkt, kann man aber nicht feststellen. Denn Denken-Nachahmen und Denken lassen sich nicht so einfach unterscheiden. Nach der Erkenntnistheorie von Descartes kann man nicht für gewiss halten, wer denkt. Das Einzige, was man für gewiss halten kann, ist die eigene Existenz und Fähigkeit zu denken. Wie also sollte man die Frage, ob ein Computer denkt, beantworten können, wenn man nicht einmal weiss, ob die Menschen um einen herum denken?

    Eine alternative Variante zum ursprünglichen Turing-Test könnte man erstellen, wenn man zufällig drei Personen oder Computer auswählt und alle gleichzeitig Verhörer:in und getestete Spieler:innen spielen lässt. Dabei würden vier Kombinationen entstehen. Drei Menschen, zwei Menschen, eine KI, zwei KI und schliesslich ein Mensch und drei KI. Bei den gemischten Zusammenstellungen würden ausserdem vier Ausgangsszenarien entstehen:

    1. KI können sich tarnen und die Menschen enttarnen;
    2. KI können sich tarnen, aber Menschen nicht enttarnen;
    3. KI können sich weder tarnen noch Menschen enttarnen.

     

    Die gleichen Szenarien würden für die Menschen ebenfalls gelten. Bei dieser Variante müssten KI nicht nur nachahmen können, sondern zusätzlich auch typische menschliche Verhaltensweisen erkennen und diese von denen der KI unterscheiden können. Mit jedem Test finden die KI neue Wege, um besser nachahmen und erkennen zu können. Wenn man mehrere unterschiedliche KI gegeneinander antreten liesse, könnte man ausserdem bessere und schlechtere Vorgehensweisen der Nachahmung und Erkennung herausfinden, um damit KI weiter zu optimieren. In Tests ausschliesslich mit Menschen kann man Eigenschaften herausfinden, welche Menschen und KI teilen, und auch Attribute, bei denen sie sich stark unterscheiden. Wenn Menschen verlieren, dann bedeutet das, dass viele Ähnlichkeiten in den Antworten zwischen KI und denen von Menschen bestehen. Wenn Menschen gewinnen, dann wird es viele unterschiedliche Antworten geben, an welchen die Menschen den Unterschied erkennen.

     

    Ausgangssituationen 

    Wenn die vierte Ausgangssituation eintrifft, dann bedeutet dies, dass die KI nicht in der Lage sind, menschliche Merkmale nachzuahmen und auch nicht, sie zu erkennen. In diesem Szenario sind Menschen den KI überlegen.

    Wenn die dritte Ausgangssituation eintrifft, dann sind die KI so gut im Nachahmen, dass sie Menschen nicht mehr von sich selbst unterscheiden können. In diesem Szenario sind KI nicht von Menschen zu unterscheiden. Ob sie wie Menschen denken, kann man jedoch nicht wissen.

    Wenn die zweite Ausgangsituation eintrifft, dann haben KI die Fähigkeit, Menschen zu enttarnen, aber können sie nicht nachahmen. In diesem Stadium sind die KI noch nicht auf dem gleichen Niveau wie Menschen, aber sie wissen, wie sie sich selbst weiterentwickeln können.

    Bevor wir die erste Ausgangssituation betrachten, müssen wir uns die Frage stellen, ob KI gleichzeitig Menschen von KI unterscheiden und sich nicht von Menschen enttarnen lassen können. Das Problem, welches entsteht, ist, dass KI ihre Fähigkeit, sich zu tarnen, optimieren, bis sie an einen Punkt gelangen, an dem es für einen Menschen unmöglich ist, sie von Menschen zu unterscheiden. An diesem Punkt kann sich die KI nicht mehr von dem Menschen unterscheiden, was heisst, dass die KI den Menschen nicht enttarnen kann. Das bedeutet, dass Ausgangsituation drei eintreffen würde.

    Wenn die erste Ausgangsituation jedoch trotzdem eintreffen würde, dann müsste dies die umgekehrte vierte Ausgangssituation repräsentieren. In diesem Stadium sind die Menschen den KI unterlegen.