Abschied vom künstlichen Menschen: Deep learning im anthropologischen Kontext

Der öffentliche Diskurs identifiziert neue Entwicklungen in der künstlichen Intelligenz (KI) oft vorschnell mit der Suche nach einem synthetischen Subjekt. Ein Verständnis von KI als Technik in einem anthropologisch-kulturellen Kontext stellt diesen Vorstellungen eine Gegenerzählung entgegen – und hilft dabei, Klarheit über unsere ethischen Prioritäten zu gewinnen.

    Öffentliche Debatten über Deep Learning – seit einigen Jahren der vielversprechendste Approach im Bereich künstliche Intelligenz – sind oft von der Frage nach menschenähnlicher Intelligenz gebannt. Die Möglichkeit eines solchen synthetischen Subjekts, dessen kognitive Leistungsfähigkeit es ihm erlaubt, eigene Lebensentwürfe zu planen und umzusetzen – und das daher auch den moralischen Status eines Menschen geniesst –, fasziniert ungebremst. Das spiegelt aber keineswegs die Situation in der Forschung wieder, die an der Kreation eines “künstlichen Menschen” nicht interessiert ist, sie für höchst unwahrscheinlich, Musik der fernen Zukunft, nutzlos oder gar moralisch verwerflich hält [1].

    Diese Kluft zwischen Expert*innentätigkeit und öffentlicher Wahrnehmung kann als Reaktion auf die Undurchsichtigkeit der Technologie gedeutet werden. Algorithmen, die ihre Gewichtungen im Prinzip aufgrund von Musterlösungen selbst anpassen (sie kennzeichnen den Oberbereich Machine Learning), beflügeln mit ihrer Selbstständigkeit scheinbar unsere Fantasie. Die Dynamik des Algorithmus bedeutet zudem, dass seine genaue Form der Forscher*in nicht immer bekannt ist.

    „Deep“ Learning zeichnet sich dadurch aus, dass Eigenschaften aus dem Input über mehrere Zwischenebenen extrahiert werden. Bei der Bilderkennung etwa wird ein Bild zunächst in Farbwerte an der jeweiligen Pixelkoordinate zerlegt, dann werden Kanten festgestellt, dann die Kanten zu Konturen und diese schliesslich zu Formen zusammengefügt. All dies findet in den inneren Ebenen der Softwarearchitektur statt. So ist die Technologie in zweierlei Hinsicht intransparent. Das schafft Raum für Spekulationen.

    Der Einsatz von neuronalen Netzwerken, die der Physiologie von Neuronen (wenn auch nur lose) nachempfunden sind, suggeriert dabei, dass es Forscher*innen immer darum geht, menschliche Kognition selbst zu verstehen. Das ist aber nicht der Fall: Eine wie auch immer aufgebaute Software, die eine (kognitiv anspruchsvolle) Aufgabe löst, lehrt uns nicht notwendigerweise etwas darüber, wie wir diese Aufgabe lösen.

    Diese unglücklichen Verschmelzungen werfen grosse philosophische Fragen auf – Was ist Bewusstsein? Was ist Geist? Was ist ein Subjekt? –, deren Sinnhaftigkeit ich auch unabhängig von der KI-Forschung für umstritten halte. Um von all dem wegzukommen, möchte ich in der Folge kurz die Produktivität einer Gegenerzählung prüfen. Ihr Ansatzpunkt ist die historische Tatsache, dass die lernende Maschine, auch wenn sie einmal autonomes Subjekt sein sollte, immer von uns gemacht wurde. Es ist ein Narrativ der künstlichen Intelligenz als eine in Kultur eingebundene Technologie.

    In Kultur eingebunden sein heisst hier: Technik ist ein Mensch-Welt-Verhältnis, das unsere Bedürfnisse gegenüber der Welt durch ihre und unsere Anpassung erfüllt. Der technische Mensch macht sich die Welt, in die er geworfen ist, angenehmer, indem er Praktiken der gegenseitigen Anpassung entwickelt [2].

    Solche Überlegungen erscheinen erst einmal gar nicht hip – viele Expert*innen, die den medialen Schwerpunktsetzungen kritisch gegenüberstehen, lassen sie aber dennoch anklingen: Wenn Joanna Bryson, KI- und Kognitionsforscherin, vorschlägt, dass KI mit der Entwicklung der Schrift beginnt, denkt sie sich diese als etwas wie kognitive Exteriorisierung.

    Technik wirkt vereinfachend: Es ist leichter, mit der Sense, also einem Werkzeug, Weizen zu ernten als mit der Hand. Exteriorisierung ist nach dem französischen Anthropologen André Leroi-Gourhan ebenfalls eine solche Form der Erleichterung: Sie bezeichnet die Delegation von kompletten Operationsprozessen an Maschinen wie den automatischen Webstuhl [3].

    Kognitive Exteriorisierung ist demzufolge die Auslagerung von Operationen, um die individuelle oder kollektive Leistungsfähigkeit zu steigern. Indem sie uns Aufgaben abnehmen, machen Technologien wie die Schrift (Gedächtnis), der Taschenrechner (Rechnungen) oder Google Maps (Orientierung und Gedächtnis) in unserem Kopf Raum für anderes. Für Bryson ist das im Prinzip schon alles KI. Wenn Machine Learning Röntgenbilder für uns vorinterpretiert oder Sprachen übersetzt, so werden wir entlastet, unabhängig davon, ob wir mit derselben Technik ein Subjekt bauen können oder nicht.

    Das Konzept “Exteriorisierung” bettet Technik in seinen kulturell bestimmten Verwendungskontext ein, ohne den jede Betrachtung unvollständig wäre. So macht es auch deutlich, inwiefern Kontinuitäten zwischen KI und “normaler” Technik bestehen. Dadurch rücken klassische technikethische Probleme in den Mittelpunkt, während die beim synthetischen Subjekt dominierende Frage des moralischen Status der Maschine selbst marginalisiert wird.

    Ein Beispiel: KI als versuchte Verbesserung der weltlichen Situation des Menschen zu verstehen, führt dazu, dass die Frage nach der Verteilungsgerechtigkeit in den Blick genommen werden muss. Schon im Angesicht der enormen Zeitersparnis, die ein selbststeuerndes Auto bietet – ganz zu schweigen von KI-gestützter Personalised Medicine –, erscheint Deep Learning wie alle topaktuellen Technologien als Treiber einer immer weiter auseinandergehenden Schere zwischen Haves und Have-nots: Menschen, die sich die Technologie leisten können, werden immer leistungsfähiger – und können sich durch den Geldwert dieser Leistung dann noch mehr leisten –, während alle anderen abgehängt werden. Es ist von grösster Wichtigkeit, dass solche Probleme nicht im Sog des Faszinosums “künstlicher Mensch” untergehen.

     

    Referenzen

    [1] Bryson, Joanna J (2018): Patiency is not a virtue: the design of intelligent systems and systems of ethics, in: Ethics and Information Technology 20/1, S. 15–26.

    [2] Blumenberg, Hans (2009): Geistesgeschichte der Technik, Frankfurt am Main: Suhrkamp, S. 12-14.

    [3] Leroi-Gourhan, André (1988 [1964-1965]): Hand und Wort. Die Evolution von Technik, Sprache und Kunst, Frankfurt am Main: Suhrkamp, S. 296-297.


     

    Frage an die Leserschaft

    Die KI wird hier im Beitrag als eine Kulturtechnik des Menschen definiert. Wenn Technik vereinfachend wirkt, dann kann die KI als kognitive Exteriorisierung verstanden werden. Wir lagern also gewisse (kognitive) Arbeiten in Systeme aus.

    Wo benutzen Sie denn schon KI in diesem Sinne, ohne es bisher gemerkt zu haben?