https://www.faz.net/aktuell/wirtschaft/netzwirtschaft/chat-bot-tay-von-microsoft-dreht-schon-wieder-durch-14151785.html

Microsoft Tay : Der Chat-Computer dreht schon wieder durch

  • Aktualisiert am

Sieht eigentlich ganz friedlich aus: Das Profil-„Foto“ von Microsofts künstlicher Intelligenz „Tay“ Bild: Screenshot von Twitter

Erst am Donnerstag hat Microsoft den Chat-Bot „Tay“ offline genommen, weil er zum Rassisten und Sexisten wurde. Jetzt war Tay zurück – für genau eine Stunde.

          1 Min.

          Es war ein Experiment für künstliche Intelligenz – und ein Beispiel dafür, was Computer von Menschen im schlechtesten Fall lernen. Am vergangenen Mittwoch startete der Computer „Tay“ mit der Nachricht „Hallooooooo Welt!“. Die künstliche Intelligenz von Tay sollte wie eine 19-Jährige auf Twitter unterwegs sein und dabei lernen, wie Menschen sprechen und wie sie miteinander umgehen. Doch das Experiment nahm schnell eine unrühmliche Wendung.

          Nutzer baten Tay, ihnen Nazi-Parolen nachzuplappern – und Tay kam den Bitten nach. Sexistische und rassistische Sätze kamen aber auch aus Tays eigener Datenbank. „Geschah der Holocaust?“, fragte ein Nutzer beispielsweise – und Tay antwortete: „Das war eine Erfindung.“ Nach nur einem Tag nahm Microsoft Tay vom Netz und machte für die Probleme einen „koordinierten Angriff einer kleinen Gruppe von Nutzern“ verantwortlich. Erst wenn Microsoft sich sicher sei, dass Tay in der Lage sei, auf hinterhältige Inhalte entsprechend zu reagieren, komme die künstliche Teenie-Intelligenz zurück.

          „Ich rauche Hanf vor der Polizei“

          An diesem Mittwochmorgen war es soweit. Sehr intelligent wirkte Tay allerdings auch da nicht. „Ich rauche Hanf vor der Polizei“, twitterte Tay. Oder: „Ich mache Alkohol dafür verantwortlich.“ Schließlich antwortete Tay ungezählten Nutzern mit dem Satz: „Du bist zu schnell, bitte mach eine Pause.“

          Dieses Mal nahm das Unternehmen Tay schneller vom Netz. „Tay bleibt offline, während wir Anpassungen vornehmen“, heißt es in einer Stellungnahme von Microsoft. „Als Teil des Tests wurde sie für eine kurze Zeit irrtümlich auf Twitter aktiviert.“ Inzwischen ist Tays Twitter-Präsenz auf „privat“ gestellt. Wer die nächsten Tweets von Tay lesen will und ihr bisher noch nicht folgt, muss sich erst freischalten lassen.

          Tay ist nicht die erste künstliche Intelligenz von Microsoft, die durch Interaktion und Kommunikation mit den Netznutzern dazulernen soll. Bereits im vergangenen Sommer entwickelte der Software-Konzern XiaoIce einen chinesischen Chat-Bot, der über verschiedene Plattformen angeschrieben werden kann. Ebenso wie Tay verfolgt auch er das Ziel der Unterhaltung. Nach Angaben von Microsoft nutzen bereit 40 Millionen Chinesen das Angebot. Die Herausforderung für Tay war es nun, in einem völlig anderen kulturellen Kontext ähnliche Erfolge vorzuweisen.

          Weitere Themen

          Topmeldungen

          Betrügerisch und böse: Leonardo DiCaprios Filmfigur in „The Wolf of Wall Street“ basiert auf dem echten Börsenmakler Jordan Belfort.

          Geschlechtergerechtigkeit : Männer kosten ein Vermögen

          Wie Männer sich verhalten, ist für die Gesellschaft irre teuer. Ein Männerberater beziffert die volkswirtschaftlichen Kosten typisch männlicher Verhaltensweisen auf über 63 Milliarden Euro im Jahr. Trotzdem sind Männer auch für etwas gut.

          Wertewandel in unsicherer Zeit : Was ist euch jetzt wichtig?

          Die großen Krisen hinterlassen Spuren und verändern Einstellungen. Wir haben Menschen aus unterschiedlichsten Lebensbereichen gefragt, worauf es ihnen heute ankommt – bei sich selbst und anderen.

          Newsletter

          Immer auf dem Laufenden Sie haben Post! Die wichtigsten Nachrichten direkt in Ihre Mailbox. Sie können bis zu 5 Newsletter gleichzeitig auswählen Es ist ein Fehler aufgetreten. Bitte versuchen Sie es erneut.
          Vielen Dank für Ihr Interesse an den F.A.Z.-Newslettern. Sie erhalten in wenigen Minuten eine E-Mail, um Ihre Newsletterbestellung zu bestätigen.