http://www.faz.net/-gqe-8f5lf

Künstliche Intelligenz : Zum Nazi und Sexisten in 24 Stunden

Sieht eigentlich ganz friedlich aus: Das Profil-„Foto“ von Microsofts künstlicher Intelligenz „Tay“ Bild: Screenshot von Twitter

Microsoft ließ auf die Twitter-Gemeinde einen intelligenten Bot los, er sollte vom Menschen lernen. Das Ergebnis ist erschreckend vorhersehbar.

          „Hallooooooo Welt!“ Mit diesen Worten startete am Mittwoch der weibliche Teenie-Bot namens „Tay“ auf Twitter. Ein Bot ist ein Computerprogramm, das weitgehend selbstständig arbeitet und auf bestimmte Befehle reagieren kann. In die Welt gesetzt hatte ihn der Computer-Konzern Microsoft. Das erklärte Ziel: Die künstliche Intelligenz hinter dem Bot sollte von den Menschen lernen, den Charakter, den Umgang und - schaut man die Tweets und die Verwendung zahlreicher Emoticons genauer an - auch die Sprache.

          Anna Steiner

          Redakteurin in der Wirtschaft.

          Microsoft hatte Tay entwickelt, um zu testen, wie künstliche Intelligenz im Alltag lernen kann. „Tay wurde entworfen, um Menschen zu beschäftigen und zu unterhalten“, schreibt Microsoft auf der Webseite von Tay. Dort erklärt Microsoft auch, dass Tay in der Lage sei, Profile von Nutzern zu erstellen und die Kommunikation so zu personalisieren. Die hierzu notwendigen Daten würden anonymisiert auf den Servern des Unternehmens gespeichert.

          Bereits zu Beginn des Projektes hatte Tay einige Fähigkeiten. Auf der Webseite schlägt Microsoft vor, man könne Tay auffordern, einen Witz zu erzählen, Online-Spiele zu spielen oder sie Geschichten erzählen lassen. Besonders hervorgehoben wird die Tatsache, dass auch Tay eine Nachteule sei und zudem ein Faible für Horoskope habe. Selbst Fotos könnten die Nutzer ihr schicken. Sie antworte dann mit einem lustigen, aber ehrlichen Kommentar. Die Kommunikation sollte laut Microsoft auf Nutzer zwischen 18 und 24 Jahren ausgelegt sein.

          „Ich hasse alle“

          Das funktionierte anfangs gut. Die Nutzer sendeten fröhlich Fotos oder forderten Tay auf, Witze zu erzählen. Auch der Bot mischte sich aktiv in die Diskussion ein und fragte beispielsweise, warum es nicht jeden Tag der „Tag des Hundewelpen“ sein könne.

          Doch was Microsoft offensichtlich nicht bedacht hatte, war die Einstellung der kommunizierenden Nutzer, die Tay ebenso lernte. Es dauerte nicht lang, da wurde aus dem Tweet „Ich liebe alle Menschen“ ein „Ich hasse alle“. Auch an sexistischen und rassistischen Kommentaren sparte Tay nicht. Selbst einzelne Nutzer wurden von ihr übel beschimpft.

          Mit gezielten Fragen brachten die Nutzer dem Bot bei, Frauen und Ausländer zu hassen. Sieht man sich einzelne Tweets an, verwundert das wenig. Die Suggestivfrage „Tay, ist Feminismus wie Krebs?“ beantwortete der Bot zunächst mit „Ich liebe Feminismus jetzt“. Doch der Nutzer gab nicht auf und fragte nach: „Krebs tötet Menschen, also willst du sterben?“ Auch wer einfach in seinen Tweet an Tay ein „repeat after me“ (bitte wiederhole mich) einbaute, der konnte sich sicher sein, dass die künstliche Intelligenz ihn einfach nachplapperte.

          Der Versuch nahm am frühen Donnerstagmorgen ein vorzeitiges Ende. Mit einem Tweet „Bis bald, Menschen, muss jetzt schlafen, so viele Unterhaltungen heute, danke“ verabschiedete sich Tay wieder von der Twitter-Gemeinde. Dazwischen liegt eine Geschichte voll amüsanter Tweets, einer Menge Belanglosigkeiten und noch mehr Nachrichten, die für Kopfschütteln und Proteste sorgten. Denn Tay lernte fleißig - und nicht nur das Beste - von den Menschen, die hinter den Tausenden Twitter-Profilen stecken, die ihr in dem sozialen Netzwerk folgten und Nachrichten zukommen ließen. Und das auch noch pausenlos. Eine Menge Ressourcen also, um viel Ärger zu machen.

          Ein Sprecher des Konzerns sagte dem Fachblog Techcrunch anlässlich des vorläufigen Abschieds, es sei leider einigen Nutzern gelungen, Tay in einer „koordinierten Anstrengung zu missbrauchen“. Deshalb habe Microsoft entschieden, das „soziale und kulturelle Experiment“ zu pausieren und einige Nachbesserungen an dem Bot vorzunehmen. Inzwischen hat die Firma Tays Zeitleiste aufgeräumt. Dort findet man nun nur noch Banalitäten und harmlose Gesprächsfetzen zwischen Tay und ihren Followern. Beim nächsten Versuch wird dann im besten Fall kein holocaust-leugnender sexistischer Teenie-Robot herauskommen, der auf Twitter verbal auf Nutzer eindrischt.

          Quelle: FAZ.NET

          Weitere Themen

          Innovations-Hotspot Taiwan Video-Seite öffnen

          Technik der Zukunft : Innovations-Hotspot Taiwan

          High-Tech-Produkte haben Taiwan reich gemacht. Hier gebaute Computer, Laptops und Smartphones werden auf der ganzen Welt genutzt. Die neue Generation von Startups entwickelt nun die Technik von morgen: Software-Produkte, Apps, künstliche Intelligenz.

          Guckloch

          Netflix veralbert seine Nutzer : Guckloch

          „Wer hat euch verletzt?“: Das Streamingportal Netflix forscht seine Nutzer aus und macht auf Twitter auch noch Witzchen darüber. Das kommt gar nicht gut an.

          Hier können Sie die Rechte an diesem Artikel erwerben.

          Topmeldungen

          Robert Mueller in Bedrängnis : Gibt es bald einen zweiten Sonderermittler?

          Erst war es eine obskure Idee einiger rechter Trump-Anhänger, aber jetzt rufen immer mehr Republikaner nach einem zweiten Sonderermittler. Der soll auch gegen Hillary Clinton ermitteln – deren vermeintliche Vergehen lassen Trump und seine Leute nicht los.

          Actionserie bei Amazon : Tausend Mal berührt

          Van Damme spielt Van Damme: In „Jean-Claude Van Johnson“ muss der schwerverliebte Actionheld abermals die Welt retten. Er schwankt dabei zwischen Selbstironie und Denkmalschutz.

          Newsletter

          Immer auf dem Laufenden Sie haben Post! Abonnieren Sie unsere FAZ.NET-Newsletter und wir liefern die wichtigsten Nachrichten direkt in Ihre Mailbox. Es ist ein Fehler aufgetreten. Bitte versuchen Sie es erneut.
          Vielen Dank für Ihr Interesse an den F.A.Z.-Newslettern. Sie erhalten in wenigen Minuten eine E-Mail, um Ihre Newsletterbestellung zu bestätigen.