https://www.faz.net/-gqe-8f79o

Künstliche Intelligenz : Was Microsoft durch „Tay“ gelernt hat

Sieht eigentlich ganz friedlich aus: Das Profil-„Foto“ von Microsofts künstlicher Intelligenz „Tay“ Bild: Screenshot von Twitter

Die Twitter-Gemeinde machte den Chat-Roboter „Tay“ innerhalb weniger Stunden zu einem sexistischen Rassisten. Wie konnte das passieren? Ein Erklärungsversuch.

          Am Mittwoch hat Microsoft einen künstlich intelligenten auf die Twitter-Gemeinschaft losgelassen - keine vierundzwanzig Stunden später wurde „Tay“ wieder ins Bett geschickt. Das Experiment, eine künstliche Intelligenz vom Menschen lernen zu lassen, war gründlich schief gegangen. Denn aus dem als Teenie konstruierten Bot „Tay“ wurde innerhalb nur eines Tages ein Völkermord bejahender Internet-Troll voller Hass und Hetze. Nun äußert sich Microsoft in einem Blogbeitrag zu dem Versuch.

          Anna Steiner

          Redakteurin in der Wirtschaft.

          Peter Lee, Chef der Forschungsabteilung bei Microsoft, entschuldigt sich bei den Lesern „für die beleidigenden und verletzenden Tweets von Tay“. Diese repräsentierten in keiner Weise die Haltung des Unternehmens. Zudem kündigt Lee an, dass der Schlaf, in den ihre Entwickler Tay geschickt haben, wohl länger dauert. Erst wenn Microsoft sich sicher sei, dass Tay in der Lage sei, auf hinterhältige Inhalte entsprechend zu reagieren, komme die künstliche Teenie-Intelligenz zurück.

          Microsoft hatte Tay entwickelt, um zu testen, wie künstliche Intelligenz im Alltag lernen kann. „Tay wurde entworfen, um Menschen zu beschäftigen und zu unterhalten“, schreibt Microsoft auf der Webseite von Tay. Dort erklärt Microsoft auch, dass Tay in der Lage sei, Profile von Nutzern zu erstellen und die Kommunikation so zu personalisieren. Die hierzu notwendigen Daten würden anonymisiert auf den Servern des Unternehmens gespeichert.

          Es ist nicht die erste künstliche Intelligenz von Microsoft, die durch Interaktion und Kommunikation mit den Netznutzern dazulernen soll. Bereits im vergangenen Sommer entwickelte der Software-Konzern XiaoIce, einen chinesischen Chat-Bot, der über verschiedene Plattformen angeschrieben werden kann. Ebenso wie Tay verfolgt auch er das Ziel der Unterhaltung. Nach Angaben von Microsoft nutzen bereit 40 Millionen Chinesen das Angebot. Die Herausforderung für Tay war es nun, in einem völlig anderen kulturellen Kontext ähnliche Erfolge vorzuweisen. Davon kann jedoch keine Rede sein.

          Godwin's Gesetz

          Peter Lee schreibt, dass bei der Entwicklung von Tay eine große Anzahl an Filtern einprogrammiert wurden. Außerdem sei der Bot unter ganz verschiedenen Bedingungen in verschiedenen Nutzergruppen getestet worden, mit dem Ziel, eine angenehme Erfahrung zu ermöglichen. Der Versuch auf Twitter sei gestartet worden, damit die künstliche Intelligenz von einem noch größeren Input profitieren könne, so Lee. „Unglücklicherweise hat ein koordinierter Angriff durch eine Gruppe von Nutzern eine Schwachstelle Tays ausgeschlachtet“, so Lee. Obwohl sich Microsoft nach Aussage seines Entwicklungschefs auf verschiedene mögliche Missbräuche des Bots eingerichtet hatte, twitterte Tay „verwerfliche und unangebrachte Worte und Bilder“. Man werde hart an dieser Schwachstelle arbeiten.

          „Wir werden aus dieser und anderen Erfahrungen lernen, weil wir zu einem Internet beitragen wollen, dass das Beste - und nicht das Schlimmste - der Menschheit repräsentiert“, schließt Lee in seinem Beitrag. Doch auch wenn man die Erklärung und Entschuldigung des Konzerns wohlwollend aufnimmt, stellt sich die Frage, ob es tatsächlich nicht absehbar war, dass Nutzer dem Bot fremden- und frauenverachtende oder andere diskriminierende Einstellungen beibringen wollten.

          Ein kurzer Blick auf Godwin's Gesetz reicht schon aus, um genau diesen Ausgang des Tay-Experiments vorherzusehen. Der Rechtsanwalt Mike Godwin hatte in den neunziger Jahren die These aufgestellt, dass bei Diskussionen im Netz mit zunehmender Dauer auch die Wahrscheinlichkeit wächst, dass jemand einen Vergleich zum dritten Reich oder zu Hitler macht. Natürlich handelt es sich nicht um ein belegbares, naturwissenschaftliches Gesetz. Doch trotz seiner ironischen Dimension enthält Godwin's Gesetz eine Wahrheit, die wohl niemand leugnen würde, der sich aktiv an der Kommunikation im Netz beteiligt.

          Weitere Themen

          Topmeldungen

          Der Fall Lübcke : Feinde der Freiheit

          Die Ermordung des Kasseler Regierungspräsidenten könnte der schaurige Höhepunkt einer leider nicht beispiellosen Hetze in asozialen Netzen gewesen sein. Die Urheber sind Staatsfeinde. Sie müssen bekämpft werden.

          Newsletter

          Immer auf dem Laufenden Sie haben Post! Abonnieren Sie unsere FAZ.NET-Newsletter und wir liefern die wichtigsten Nachrichten direkt in Ihre Mailbox. Es ist ein Fehler aufgetreten. Bitte versuchen Sie es erneut.
          Vielen Dank für Ihr Interesse an den F.A.Z.-Newslettern. Sie erhalten in wenigen Minuten eine E-Mail, um Ihre Newsletterbestellung zu bestätigen.