https://www.faz.net/-gqz-87w0u

Algorithmen und Stereotype : Für Computer sind Menschen wie Gorillas

  • -Aktualisiert am

Unser Blick durch Google auf die Welt ist kein neutraler, auch wenn Algorithmen wertfrei arbeiten. Bild: AFP

Google und Flickr verwechseln Menschen mit Affen und Suchmaschinen spucken fast nur Bilder von Männern aus, wenn nach „CEO“ gesucht wird. Wie Algorithmen unsere Meinungen prägen und sogar Klischees produzieren.

          3 Min.

          Algorithmen bestimmen unseren Alltag. Sie entscheiden, welche Geschichten wir auf Facebook lesen, welche Leute wir auf Tinder treffen oder welche Suchergebnisse uns Google anzeigt. Die Frage ist: Wie objektiv sind diese Informationen? Wissenschaftler der Carnegie Mellon University und des International Computer Science Institute führten ein Experiment durch: Sie entwickelten ein Werkzeug namens AdFisher, das die Suche im Netz simulierte. Die fiktiven Dummys starteten ohne Suchhistorie und besuchten eine Jobbörse. Als sie später eine Nachrichtenseite aufriefen, zeigte Google ihnen Stellenanzeigen - was zu erwarten war. Das Verblüffende daran war jedoch, dass männliche Nutzer - oder solche, die Google für männlichen Geschlechts hielt - häufig Annoncen für Jobs mit hohem Einkommen (mehr als 200 000 Dollar) angezeigt bekamen. Wie das? Die Wissenschaftler rangen um eine Deutung. Zwei Ansätze sind denkbar: Entweder verlangten die Anzeigenkunden, dass die Werbung auf Männer zugeschnitten wird. Oder die Algorithmen bestimmten, dass Männer eher auf die Anzeige klickten.

          Gorilla mit Grashalm oder Mensch mit Zigarette? Google ist sich nicht ganz sicher.

          Was wiederum die Frage aufwirft: Können Algorithmen diskriminieren? Algorithmen werden von Entwicklern gerne als objektiv gepriesen, sie basieren auf Gleichungen und Zahlen. Doch sie werden, wie jede Software, von Menschen geschrieben. Und die haben Vorurteile. Anna Lauren Hoffmann, Forscherin an der School of Information der University of California, Berkeley, vertritt die These, dass Algorithmen per Definition diskriminierend seien. „Sie detaillieren ein Set von Instruktionen oder Kalkulationen, um spezifische Inputs in Outputs zu verwandeln. Im Falle von Online-Algorithmen müssen diese Prozesse zwischen als relevant erachteten und nicht relevanten Informationen differenzieren.“ Darin liege schon eine diskriminierende Wertung. Die Frage ist, wie wir mit unseren Anfragen unsere eigenen Vorurteile perpetuieren - sie liefern ja den Input für die Algorithmen.

          Die krude Unterstellung des Computers

          Als die Harvard-Professorin Latanya Sweeney ihren Namen googelte, tauchte eine Anzeige mit dem Titel „Latanya Sweeney, Arrested?“ auf: Wurde Latanya Sweeney verhaftet? Die Dozentin hatte sich noch nie etwas zuschulden kommen lassen, doch offensichtlich leiteten die Algorithmen aus ihrer afroamerikanischen Herkunft eine kriminelle Neigung ab. Sweeney nahm dies zum Anlass, eine Studie über rassistische Hintergründe durchzuführen. Sie suchte mehr als 2100 Namen lebender Personen in Google. Ergebnis: Namen wie „Travon“, „Rasheed“ oder „Tamika“, die einen afroamerikanischen Hintergrund vermuten lassen, riefen signifikant mehr Haftanzeigen hervor als „weiß klingende“ Namen. Googles neue Foto-App „Photos“ kategorisierte dunkelhäutige Menschen - versehentlich - als „Gorillas“. Die App enthält eine Funktion zur automatischen Verschlagwortung von Bildern. Das System soll helfen, sich in einer Fotosammlung besser zurechtzufinden, etwa indem Bildern eines Bergpanoramas der Begriff „Berge“ zugeordnet wird. Im Juni fiel dem Programmierer Jack Alciné ein Fotoalbum von ihm und seiner Freundin auf, das die Google-App automatisch mit „Gorillas“ überschrieben hatte. Die Foto-App setzte einen Menschen mit einem Gorilla gleich. Mit dem Problem ist Google nicht allein. Auch das Fotoportal „Flickr“ ist wegen ähnlich falscher Zuordnungen in die Kritik geraten. Dort hatten die Algorithmen dunkelhäutige Menschen mit Begriffen wie „Affe“ oder „Tier“ gekennzeichnet.

          Das Problem ist, dass Google die Wirklichkeit verquer konstruiert. Wenn wir googeln, machen wir uns im Kopf ein Bild davon, wie die Welt da draußen aussieht. Die Suchmaschine prägt Präferenzen und Perzeptionen. Die Computerwissenschaftlerin Cynthia Matuszek, die eine Studie zu diesem Phänomen durchführte, sagt: „Wenn die Leute ,CEO‘ suchen und nur Männer sehen, denken sie unterschwellig an Männer als Chefs und klicken eher auf Bilder, die diesem Vorurteil entsprechen. Der Algorithmus lernt, dass das Bild ein vermeintlich besseres Ergebnis ist, und zeigt mehr solcher Ergebnisse. Es ist ein sich selbst reproduzierender Zyklus.“

          Algorithmen verbreiten ehrabschneidende Unterstellungen. Die Autocomplete-Funktion eignet sich als Verleumdungsmaschine - sie nimmt die krudesten Behauptungen auf. Wo früher getuschelt wurde, spuckt heute der Computer das Gerücht aus. Google sagt, es handele sich bei den Algorithmen um nicht moralisch wertende Maschinen. Das Motto: Wir geben nur wieder. Doch ein Konzern, der die Reputation jedes Einzelnen beeinflussen kann, sollte sich so wohlfeil nicht exkulpieren. In ihrem Paper resümieren Wissenschaftler der Carnegie Mellon University und des International Computer Science Institute: „Der wertfreie Status eines Algorithmus negiert nicht seine Effekte auf die Gesellschaft.“ Das ist der entscheidende Punkt. Selbst wenn der Algorithmus wertfrei operiert, produziert und verstärkt er Stereotype.

          Weitere Themen

          „Parasite“ Video-Seite öffnen

          Trailer : „Parasite“

          „Parasite“, 2019. Regie: Joon-ho Bong. Darsteller: Kang-Ho Song, Woo-sik Choi, Park So-Dam. Kinostart: 17. Oktober 2019

          Manche Trolle tragen Krawatten

          Frankfurter Buchmesse : Manche Trolle tragen Krawatten

          Frauen werden in sozialen Netzwerken oft unter der Gürtellinie angegangen – besonders Politikerinnen. Eine Diskussion auf der Buchmesse fragt: Ist denn nichts besser geworden?

          Topmeldungen

          Newsletter

          Immer auf dem Laufenden Sie haben Post! Abonnieren Sie unsere FAZ.NET-Newsletter und wir liefern die wichtigsten Nachrichten direkt in Ihre Mailbox. Es ist ein Fehler aufgetreten. Bitte versuchen Sie es erneut.
          Vielen Dank für Ihr Interesse an den F.A.Z.-Newslettern. Sie erhalten in wenigen Minuten eine E-Mail, um Ihre Newsletterbestellung zu bestätigen.