Moralisch lernfähige Assistenzsysteme in der Pflege

Wie häufig und eindringlich soll eine Pflegesystem an Essen und Trinken sowie die Einnahme von Medikamenten erinnern? Wann sollte es die Angehörigen verständigen oder den medizinischen Dienst alarmieren, wenn jemand sich eine Zeitlang nicht rührt? Und nicht zuletzt: Wie ist mit den Monitoring-Daten zu verfahren?

    Aufgrund des demographischen Wandels wird der Anteil pflegebedürftiger Menschen in den nächsten Jahrzehnten stark zunehmen. Der Einsatz technischer Assistenzsysteme ist eine Möglichkeit, um dem Pflegenotstand entgegen zu treten, insbesondere in der häuslichen Pflege. Doch je komplexer und autonomer Assistenzsysteme werden, desto eher müssen sie ihr Verhalten auch selbst regulieren können und über ein gewisses Maß an eigenständiger moralischer Entscheidungsfähigkeit verfügen. Situationen, die moralische Entscheidungen verlangen, sind beispielsweise: Wie häufig und eindringlich soll eine Pflegesystem an Essen und Trinken sowie die Einnahme von Medikamenten erinnern? Wann sollte es die Angehörigen verständigen oder den medizinischen Dienst alarmieren, wenn jemand sich eine Zeitlang nicht rührt? Und nicht zuletzt: Wie ist mit den Monitoring-Daten zu verfahren?

    In solchen Situationen muss das System zwischen bestimmten moralischen Werten abwägen wie etwa der Selbstbestimmung des Nutzers, den gesundheitlichen Risiken und der Sorge der Angehörigen. Die wichtigste Perspektive stellt jedoch die Sicht der Betroffenen dar. Wenn man diese nicht bevormunden möchte, müssen sie einen Einfluss darauf haben, an welchen moralischen Werten sich das System bei seinen Entscheidungen orientiert und wie es diese gewichtet. Ein Pflegesystem muss daher in der Lage sein, in der Interaktion mit dem Nutzer dessen moralisches Wertprofil zu erkennen und sich flexibel darauf einzustellen. Ein solches System ist zwar derzeitig noch nicht auf dem Markt, aber wir haben eine Roadmap entwickelt, wie bei der Entwicklung vorzugehen ist (s. Kasten). Dabei müssen Philosophie, Informatik und Sozialwissenschaften eng zusammenarbeiten.

    Zunächst einmal gilt es, die in der Altenpflege relevanten moralischen Werte aus der Sicht der Betroffenen zu identifizieren. Dies kann beispielsweise durch qualitative Interviews geschehen, deren Ergebnis eine Liste der moralischen Werte ist, die Betroffene für wichtig in der Altenpflege erachten.

    In einem zweiten Schritt müssen diese moralischen Werte so operationalisiert werden, dass ein künstliches System sie erkennen und gemäß dem moralischen Wertprofil des Nutzers gewichten kann. Es müssen Szenarien formuliert werden, in denen es um moralisch relevante Situationen in der Altenpflege geht, insbesondere solche, in denen verschiedene moralische Werte in Konflikt geraten, wie sie oben dargestellt wurden. Die Art und Weise, wie der Nutzer sich in diesen Szenarien entscheidet, lässt Rückschlüsse darauf zu, welche moralischen Werte er in seiner Pflege realisiert sehen möchte und wie sie gewichtet werden.

    Drittens müssen die Szenarien im System implementiert werden. Es geht darum, die moralischen Fragen in Informationsverarbeitungsprozesse zu übersetzen und entsprechende Algorithmen zu entwickeln.

    Viertens stellt sich das System in einer Trainingsphase auf den Nutzer ein. Es präsentiert dem Nutzer die Szenarien und entwickelt anhand seiner Reaktionen ein Modell des moralischen Wertprofils des Nutzers.

    Schließlich aktualisiert das System das Profil in der fortlaufenden Interaktion mit dem Nutzer. Dies gewährleistet die Feinabstimmung des moralischen Wertprofils und bezieht mögliche Veränderungen im Lauf der Zeit mit ein.

    Alle Schritte müssen selbstverständlich von sorgfältigen Tests begleitet werden, die sicherstellen, dass das System einwandfrei funktioniert und zu den richtigen moralischen Entscheidungen kommt. Zusätzlich gilt es, dafür Sorge zu tragen, dass die Funktionsfähigkeit des Systems einer permanenten Kontrolle unterliegt, beispielsweise indem das System mit einer Selbstmonitoring-Funktion ausgestattet wird und regelmäßige Statusberichte gibt, um rechtzeitig auf Fehler aufmerksam zu machen und sich gegebenenfalls selbst abzuschalten.

    Einem solchen System können moralische Fähigkeiten zugesprochen werden, da es in der Lage ist zu lernen was moralisch gut und schlecht ist, und Individuen gemäß ihren eigenen moralischen Standards behandeln kann.

    Es gibt jedoch eine Einschränkung. Ein solches System ist nicht in allen Kontexten der Altenpflege einsetzbar. Die Zielgruppe sind Menschen, die geistig in der Lage sind, grundlegende Entscheidungen über ihr Leben zu treffen, aber körperlich so eingeschränkt sind, dass sie nicht ohne Pflege allein zu Hause leben können. Außerdem verfügen sie nicht über das technische Know-how, das notwendig wäre, um ein Assistenzsystem selbst in Übereinstimmung mit ihren Werten einzurichten. Für diese Menschen könnte ein System mit den dargelegten moralischen Fähigkeiten einen Beitrag dazu leisten, dass sie so lange wie möglich selbstbestimmt in ihrer häuslichen Umgebung leben können.