Woher wissen wir, wann wir etwas geschaffen haben, das fähig ist, sich zu freuen und zu leiden? Künstliche Intelligenzen sollten daher den gleichen ethischen Schutz wie Tiere genießen, findet Kolumnist Peter Glaser.

Stuttgart - Die Science-Fiction-Serie „Westworld“ spielt in einem futuristischen Vergnügungspark, in dem man als dekadentes Vergnügen Kämpfe gegen Androiden in Menschengestalt führen kann. Sensoren in den Waffen regeln, dass Menschen stets unverletzt bleiben, während die Androiden „verwundet“ oder „getötet“ werden können. In Wahrheit werden sie nachts in unterirdischen Werkstätten repariert. Dann findet einer der Gründer des Parks Belege dafür, dass die Menschmaschinen über ein eigenes Bewusstsein verfügen und sich damit auch ihrer Qualen bewusst sind.

 

Die KI-Forschung könnte uns schon bald mit Künstlichen Intelligenzen versorgen, die kognitiv etwa Mäusen oder Hunden entsprechen. Isaac Asimovs Robotergesetze führen hier in die Irre, denn sie suggerieren, dass man es bei einem KI-Roboter immer gleich mit etwas zu tun hat, das dem Menschen auf Augenhöhe begegnet. Von solchen Schöpfungen sind wir aber noch unkalkulierbar weit entfernt. Um ethische Fragen der realen Entwicklung zu beantworten, sollten wir unsere Zeit nicht mit herbeifantasierten Gegensätzen zwischen menschlichem Edelmut und kalter, böser Maschinenlogik vertun. Stattdessen sollten wir uns, Mäusen und Hunden angemessen, mit Tierschutz befassen.

Wir haben keine oder kaum Regeln für selbstfahrende Autos

Biomedizinische Forschung wird von Ethikkommissionen genau hinterfragt. In der KI-Forschung, die den gleichen ethischen Risiken begegnet, ist davon nicht viel zu sehen. „Wir verfügen über sehr strikte Regeln für Medikamententests oder Flugreisen“, sagt der Schweizer KI-Forscher Christian Hugo Hoffmann, „haben aber keine oder kaum Regeln für selbstfahrende Autos.“ Die große Frage ist: Woher wissen wir, wann wir etwas geschaffen haben, das fähig ist, sich zu freuen und zu leiden? Mit jemandem wie dem „Star Trek“-Androiden Data könnte man darüber debattieren, und Data könnte seine Rechte einfordern. Wenn sich eine KI aber nicht artikulieren kann, geht es ihr womöglich wie jemandem, der am Completely-locked-in-Syndrom leidet – eingeschlossen im eigenen Körper, ohne Möglichkeit, sich mitzuteilen.

Das Grundproblem besteht darin, dass die verschiedenen Wissenschaften, die sich mit der Erforschung des Bewusstseins befassen, immer noch keinen Konsens darüber erzielt haben, was Bewusstsein ist. Für die einen erfordert Bewusstsein bestimmte Arten gut organisierter Informationsverarbeitung. An solchen Systemen wird gearbeitet. Für andere ist ein Bewusstsein von hochkomplexen biologischen Gegebenheiten abhängig, etwa einem Säugetiergehirn. Sollte sich die informatische Sichtweise durchsetzen, werden wir bald viele KIs haben, denen ethischer Schutz auf dem Niveau des Tierschutzes zusteht.

In Deutschland soll ein Tüv für künstliche Intelligenz kommen

Die Diskussion über KI-Risiken muss um die Frage erweitert werden, welche ethische Beeinträchtigung wir Menschen als mögliche Quelle von Misshandlungen für diese Haustier-KIs darstellen. „In der Vergangenheit wurden angemessene Schutzrechte von Lebewesen als Forschungsobjekte oft erst nach Aufdeckung schwerwiegender ethischer Verstöße eingefordert“, sagt der Philosoph Eric Schwitzgiebel von der University of California. „Mit KI haben wir die Chance, es besser zu machen.“

Auch in Deutschland soll ein Tüv für künstliche Intelligenz kommen. In der KI-Strategie der Bundesregierung ist der Aufbau eines deutschen Observatoriums für Anwendungen von künstlicher Intelligenz festgelegt, das Entwicklungen und Folgen der Technologie beobachten soll. Eine KI mit eigenem Bewusstsein ist noch Zukunftsmusik. Aber wir sollten vorbereitet sein.