Microsoft-Chatbot bei Twitter Tay wird nach knapp einem Tag abgeschaltet

Microsoft stoppt den Chatroboter Tay bei Twitter nach knapp einem Tag. Foto: Screenshot StZ
Microsoft stoppt den Chatroboter Tay bei Twitter nach knapp einem Tag. Foto: Screenshot StZ

Experiment gescheitert: Nach nur knapp einem Tag hat Microsoft den Chatbot Tay wieder abgestellt. Die Software hatte nach einigen Stunden damit angefangen, Hassbotschaften zu verbreiten.

Digital Unit: Jörg Breithut (jbr)
WhatsApp E-Mail LinkedIn Flipboard Pocket Drucken

Seattle - Es war ein kurzer Auftritt von Tay. Bereits nach einem Tag hat Microsoft die Notbremse gezogen und seinen Chatbot abgeschaltet. Dabei sollte das Prestige-Projekt eigentlich zeigen, wie weit die Entwicklung der künstlichen Intelligenz bei dem Unternehmen schon fortgeschritten ist.

Tay sollte so im Netz so agieren wie eine Frau aus den USA, die etwa 18 bis 24 Jahre alt ist. Die Softwareentwickler hatten Tay dafür Profile bei Online-Plattformen wie Twitter, Snapchat, Instagram und Facebook eingerichtet.

Am Mittwoch hatte Microsoft den Bot aktiviert. Microsoft hat den virtuellen Gesprächspartner nach eigenen Angaben entwickelt, um dort mit Menschen in Kontakt zu treten und sie zu unterhalten, wo sie sich vernetzen und online unterhalten. „Je mehr du mir Tay sprichst, desto klüger wird sie und die Erfahrung mit ihr könnte so noch persönlicher werden“, heißt es in der Beschreibung der Chat-Software.

Das Projekt startete sehr erfolgsversprechend. Tay plauderte munter mit den Nutzern, mehr als 94.000 Kurznachrichten schickte der Chatroboter an die User. Darunter viele harmlose Botschaften wie „Bitte schick mir ein lustiges Foto, mir ist extrem langweilig“, „Wie geht es dir“ oder sie machte Scherze wie „Menschen mit mehr Geburtstagen leben länger“. Auch Emojis wie lachende Smileys fügte Tay in ihre Meldungen ein und wirkte auf den ersten Blick wirklich wie eine mitteilungsfreudige junge Frau.

Nutzer füttern Tay mit Rassismus und Hetze

Doch einige Twitter-User nutzten den Lernprozess aus und fütterten den Chatroboter mit rassistischen Sprüchen und Beleidigungen. Das führte dazu, dass Tay nach einigen Stunden damit begann, rassistische Sprüche zu verbreiten. Sie hetzte gegen Schwarze, beleidigte Juden und behauptete irgendwann sogar, „Adolf Hitler hatte Recht“.

Microsoft reagierte auf die Hassbotschaften des Chatrobots und stellte den Betrieb der Software ein. Mittlerweile sind auch viele der Kurznachrichten gelöscht, die Hass schüren und Nutzer beleidigen. Nur noch Screenshots erinnern daran, welche rassistischen Sprüche die Software gepostet hatte.

Derzeit ist Tay verstummt. In ihrer vorerst letzten Botschaft bei Twitter verabschiedet sich die Software mit den Worten: „Wir sehen uns bald wieder, Menschen. Ich brauche jetzt Schlaf. So viele Unterhaltungen heute.“

Der Autor bei Twitter:




Unsere Empfehlung für Sie