Frau Hafner, finden Sie es nicht problematisch, wenn die Roboter den Menschen soziale Fähigkeiten vorspielen?
Hafner Wir werten das erst mal gar nicht. Es ist die Grundlage dafür, mit Menschen zu interagieren. Zudem muss sich der Roboter von anderen und der Umwelt abgrenzen können – ebenso wie Kinder, die das in einem bestimmten Alter lernen. Im Übrigen sind emotionale Beziehungen zu Maschinen ja nicht neu. Roboter müssen dafür gar nicht so weit entwickelt sein – denken Sie an die Tamagotchis in den 1990er Jahren. In Japan werden bereits Seehunderoboter eingesetzt, um Alte im Pflegeheim zu begleiten. Das klappt ganz gut. Aber das sind ethische Fragen, die sich die Gesellschaft stellen muss, ob wir das wollen – und wie ähnlich Roboter Menschen sein sollen.
Paulus Die Entwicklung könnte natürlich auch eine Chance sein für jemanden, der kein soziales Umfeld hat, der bettlägerig ist oder nicht mehr aus dem Haus kann. Andererseits wäre es entmenschlichend, alle alten Leute mit einem Roboter zu versorgen und zu denken, damit ist alles getan. Und es ergeben sich neue Probleme. Stellen Sie sich vor, jemand hat ein soziales Verhältnis zu seinem Hausroboter. Für diese Person ist die Maschine ein soziales Wesen, aber vielleicht nicht für andere. Die Nachbarn oder die eigenen Kinder haben dafür unter Umständen kein Verständnis. Wenn wir Gefühle gegenüber Robotern entwickeln, bringt das Probleme mit sich. Letztlich führt es uns auf die Frage zurück, was uns Menschen eigentlich auszeichnet, was uns einzigartig macht. Das ist eine spannende Debatte.
Kürzlich zeigten Forscher in einem Experiment, dass Kleinkinder künstlichen Agenten über ein Hindernis hinweggeholfen haben. Damit wollten die Forscher zeigen, dass es keine Empathie braucht, um zu helfen. Es könnte aber natürlich auch heißen, dass wir Empathie für Roboter empfinden können . . .
Paulus Das ist eine spannende Frage, die wir tatsächlich gerade untersuchen. Wir führen Experimente mit Kollegen aus den Niederlanden durch, in denen wir untersuchen, ob Menschen Roboter opfern würden, um andere Menschen zu retten. Je menschenähnlicher Roboter sind, umso weniger sind sie dazu geneigt. Das kann durchaus ein ethisches Problem werden. Ein Roboter ist eben doch nur ein Roboter.
Nehmen wir ein anderes Beispiel: Frau Hafners japanische Kollegin Yukie Nagai hat durch Experimente mit Robotern gezeigt, dass Kleinkinder nicht unbedingt sozial motiviert sind, wenn sie ihrer Mutter einen heruntergefallenen Gegenstand reichen. Laut Nagai berechnen sie lediglich, was ihre Mutter wohl als Nächstes tut – den Gegenstand aufheben –, und nehmen das vorweg. Jedenfalls kann man Robotern genau diese Verhaltensweise beibringen. Wenn kleine Kinder ein solches Verhalten zeigen, geht die Psychologie aber davon aus, dass sie ihrer Mutter helfen wollen. Wieso sollte es einen Unterschied zwischen Mensch und Maschine geben?
Paulus Manche Psychologen verfolgen in der Tat die Theorie, dass ein neun Monate altes Kind schon ein Verständnis für den anderen hat, für dessen Gefühle und Ideen. Diese Kollegen finden das Ergebnis von Frau Nagai vielleicht nicht so schön. Das Experiment, das Sie hier erwähnen, muss man dennoch zumindest kritisch hinterfragen. Die Robotiker programmieren irgendetwas in den Roboter hinein, das so aussieht wie menschliches Verhalten. Aber vielleicht läuft das beim Menschen viel komplexer ab, und das Experiment bildet nur einen ganz speziellen Ausschnitt der Verhaltensweise ab.
Wenn ein Mensch nach etwas greift, kommt ihm der Roboter zu Hilfe – es sieht so aus, als sei er höflich. Ist das kein prosoziales, also hilfsbereites Verhalten?
Paulus Darüber kann man natürlich sehr kontrovers diskutieren. Handelt die Zugtür, die sich automatisch öffnet, wenn ich vor ihr stehe, prosozial? Der Roboter folgt Routinen, einprogrammierten Prozessen. Ich weiß ja nicht, ob der Roboter das Ziel hat, den Menschen zu helfen.
Und die Kleinkinder in psychologischen Experimenten, die ihren Müttern heruntergefallene Gegenstände reichen?
Paulus Das ist in der Tat umstritten. Die Frage ist, ob die Intention prosozial ist. Will dieses Kind dem anderen etwas Gutes tun, oder gibt es vielleicht andere Erklärungen? Wir als Erwachsene glauben gerne, dass dieses Kind einfach nett ist und etwas Gutes tun will, also ein altruistisches Motiv hat. Dafür gibt es auch Argumente von Kollegen. Andere sagen: Das Kind übernimmt das Ziel eines anderen, sieht, das Ziel ist noch nicht erreicht, und handelt dementsprechend.
Könnte es also sein, dass diese kleinen Kinder es machen wie die Roboter von Frau Hafner?
Paulus Für diese spezielle Fragestellung könnte das eine Alternativerklärung sein, weil die Kinder in einem Alter ein Hilfeverhalten an den Tag legen, in dem sie nach Maßgabe vieler Forscher noch gar nicht in der Lage sein können, Empathie zu empfinden. Da ist ein alternatives Modell, wie es Frau Hafner hier anbietet, spannend für uns.
Hafner Sehen Sie, wir arbeiten zwar in völlig verschiedenen Disziplinen, aber letztendlich an ähnlichen Themen.