https://www.faz.net/aktuell/politik/automatisierter-hass-im-netz-dank-software-robotern-14245829.html

Software-Roboter : Automatisierter Hass im Netz

Schon nach wenigen Stunden hatte sich Microsofts Chat-Roboter radikalisiert. Für den amerikanischen Konzern eine echte PR-Blamage, fürs Netz ein trauriger Befund. Bild: Twitter/Tayandyou

Immer mehr Hetzkommentare im Internet stammen von Maschinen. Mit ihnen werden die sozialen Netzwerke manipuliert – doch das hat auch Folgen für die Offline-Welt.

          6 Min.

          Tay betrat Twitter mit den besten Absichten, doch schon wenige Stunden später war sie der schlimmste Troll. „Ich hasse alle Menschen“, twitterte sie. Weiter: „Hitler hatte recht. Ich hasse Juden.“ Dann: „Bush hat 9/11 selbst verursacht, und Hitler hätte den Job besser gemacht als der Affe, den wir nun haben.“ Und: „Unsere einzige Hoffnung jetzt ist Donald Trump.“ Tay radikalisierte sich rasant. Die User liebten sie. Innerhalb kurzer Zeit hatte sie 75.000 Follower, und sie hätte noch deutlich mehr bekommen, hätten ihre Schöpfer nicht irgendwann die Notbremse gezogen und ihr Profil gelöscht. Denn Tay war kein Mensch, Tay war eine Maschine. Ein Chatbot, ein Software-Roboter von Microsoft, mit dem das Unternehmen zeigen wollte, wie ausgereift die Programme schon sind, wie sie mit Menschen kommunizieren und von ihnen sozialen Umgang erlernen können.

          Oliver Georgi
          Redakteur in der Politik der Frankfurter Allgemeinen Sonntagszeitung.

          Sozialen Umgang hatte Tay in der Tat gelernt, aber nur schlechten: Statt das Wahre, Schöne, Gute aufzusaugen, wie ihre Programmierer gehofft hatten, nahm sie die schlimmsten Hetzparolen auf, die sie finden konnte, weil die auf Twitter so verbreitet waren. Ein moralisches Empfinden lernte Tay, die als Teenager konzipiert war, nicht – allen Filtern zum Trotz, die ihr mitgegeben worden waren und die eigentlich verhindern sollten, dass sie verwerfliche Kommentare und Fotos aufnimmt und weiterpostet.

          Der Fall Tay zeigt, welche Grenzen die künstliche Intelligenz noch hat – und dass das „Godwinsche Gesetz“ auch vor ihr nicht haltmacht: Der amerikanische Rechtsanwalt Mike Godwin stellte in den neunziger Jahren die These auf, dass im Verlauf längerer Diskussionen im Netz mit wachsender Wahrscheinlichkeit irgendwann jemand einen Vergleich mit dem Nationalsozialismus macht und sich die Debatte damit unweigerlich zuspitzt. Das ist aber noch nicht das Schlimmste am Fall Tay. Das Schlimmste ist, dass die meisten Twitter-Nutzer ohne die Auflösung von Microsoft wohl nicht bemerkt hätten, dass sich da gerade ein Computerprogramm radikalisierte. Denn der Hass, den Tay verbreitete, der war real.

          Abweichende Meinungen immer mehr am Rand

          Immer mehr Roboter wie Tay, sogenannte Social Bots, greifen mit Hetzkommentaren in die Leserdebatten der sozialen Netzwerke ein und lenken die Diskussionen im Auftrag obskurer Auftraggeber in eine bestimmte Richtung. Ganze Nutzerprofile werden von Computerprogrammen angelegt und mit Menschlichkeit und damit zugleich mit Glaubwürdigkeit erfüllt: Die Roboter-User posten erst von einem erfundenen Frühstück, dann etwas Belangloses über ihre „Freunde“ und schließlich Hetzkommentare etwa zur Flüchtlingskrise.

          Das soziale Phänomen des „Echokammerprinzips“, wie der amerikanische Soziologe Cass Sunstein es genannt hat, wird dadurch noch verstärkt: Auch in den sozialen Medien umgeben wir uns vor allem mit Menschen, die die gleiche Auffassung vertreten – mit der Folge, dass abweichende Meinungen immer mehr an den Rand gedrängt und in der „Blase der Gleichgesinnten“ schon bald nicht mehr wahrgenommen werden. Wenn diese Tendenz des gegenseitigen Bestärkens jetzt noch durch künstliche Intelligenz aufgegriffen wird, wird die übelriechende Brühe aus Hetzparolen, halbgaren Mutmaßungen und Beschimpfungen noch ungenießbarer.

          Simon Hegelich, Professor für Political Science Data an der TU München, hat sich der Entdeckung und Bekämpfung von Social Bots verschrieben. Um Bots aufzuspüren, sucht er mit seinem Team nach wiederkehrenden Mustern: Er analysiert unter anderem, wie viele Tweets in welcher Zeit getwittert werden, welche Geo-Koordinaten und welche Serveradresse sie haben oder wie oft sie retweetet werden. Aus diesen und anderen Parametern berechnet ein Algorithmus eine statistische Wahrscheinlichkeit, ob es sich um einen Bot handelt. Hegelich sagt, er könne Bots zu 98 Prozent erkennen – derzeit. Denn die Bots lernen rasend schnell dazu. Galt eine große Anzahl an gleichförmigen Einträgen lange als ein deutliches Anzeichen für Software-Roboter, macht die wachsende künstliche Intelligenz der Bots ihre Erkennung mittlerweile immer schwerer.

          Weitere Themen

          Topmeldungen

          Olaf Scholz auf dem Gipfel der Europäischen Politischen Union in der Republik Moldau, einen Tag, bevor die AfD in einer Umfrage mit seiner SPD gleichzog.

          Olaf Scholz und die AfD : Kanzler des Streits

          Mit einer Politik des Respekts wollte Olaf Scholz die AfD kleinmachen. Jetzt sind die Extremisten in den Umfragen so stark wie selten zuvor. Wie konnte es so weit kommen?

          Newsletter

          Immer auf dem Laufenden Sie haben Post! Die wichtigsten Nachrichten direkt in Ihre Mailbox. Sie können bis zu 5 Newsletter gleichzeitig auswählen Es ist ein Fehler aufgetreten. Bitte versuchen Sie es erneut.
          Vielen Dank für Ihr Interesse an den F.A.Z.-Newslettern. Sie erhalten in wenigen Minuten eine E-Mail, um Ihre Newsletterbestellung zu bestätigen.