https://www.faz.net/-gqz-a0syh

Diskriminierende Algorithmen : Der Rassismus im System

  • -Aktualisiert am

Im Raster der Künstlichen Intelligenz: Gesichtserkennungssoftware erkennt schwarze Menschen oft schlechter als weiße. Bild: Shutterstock

Künstliche Intelligenzen sollten die Ungerechtigkeit der analogen Welt beenden und eine neue digitale Objektivität errichten. In Wahrheit aber ist diese Objektivität sehr exklusiv, sie gilt für weiße Menschen. Für schwarze Menschen kann das gefährliche Folgen haben.

          7 Min.

          Warum sie sich erst eine weiße Plastikmaske aufsetzen musste, damit eine Webcam in ihr einen Menschen erkannte, erzählt die Computerwissenschaftlerin Joy Buolamwini in einem Ted-Talk von 2016. Damals, Buolamwini stand kurz vor ihrem Abschluss am Massachusetts Institute of Technology, baute sie für ein Seminarprojekt einen Spiegel mit integrierter Webcam, der aus seinen Betrachterinnen Löwen machen sollte. So ähnlich wie heute der Hundefilter auf Snapchat. Doch als Buolamwini sich vor den Spiegel stellte, geschah nichts. Die Gesichtserkennungssoftware der Webcam sah keinen Menschen vor sich. Bei ihren Mitstudenten funktionierte die Software dagegen ohne Probleme. Buolamwinis Mitstudentinnen waren weiß. Sie selbst ist Schwarz.

          Ein Algorithmus in einer Gesichtserkennungssoftware erzeugt auf Grundlage eines Inputs einen Output. Er verarbeitet ein Bild und entscheidet, ob auf dem Bild ein menschliches Gesicht zu sehen ist oder nicht. Das sind die einzigen beiden Entscheidungen, die er am Ende treffen kann: 0 oder 1, ja oder nein, menschliches Gesicht oder kein menschliches Gesicht. Um zu lernen, wie ein Gesicht überhaupt aussieht, wird der Algorithmus vorher mit Beispielbildern trainiert. Irgendwann erkennt er in den Bildern wiederkehrenden Muster, Merkmale und Strukturen. Genau hier liegt das Problem. Wenn das Set an Trainingsbildern nicht divers sei, sagt Buolamwini, dann seien die Gesichter, die zu stark von der erstellten Norm abweichen, für den Algorithmus schwieriger zu erkennen. Eine Gesichtserkennungssoftware, die nur mit Bildern von weißen Menschen trainiert wird, sieht nichtweiße Menschen nicht. In der Informatik gibt es dafür einen eigenen Begriff: „Garbage in, Garbage out“. Müll rein, Müll raus.

          Testen Sie unser Angebot.
          Jetzt weiterlesen.
          Testen Sie unsere Angebote.
          F.A.Z. PLUS:

            FAZ.NET komplett

          Diese und viele weitere Artikel lesen Sie mit F+
          Nachtclub in München: Feiern Geimpfte oder Ungeimpfte?

          Corona-Studie : An neun von zehn Ansteckungen ist ein Ungeimpfter beteiligt

          Wissenschaftler der Humboldt-Universität haben die Rolle der Ungeschützten im Infektionsgeschehen untersucht. Demnach ist die Ansteckung innerhalb der Gruppe der Geimpften gering. Maßnahmen sollte man daraus jedoch nicht ableiten.
          Neuer Impfstoff, neue Hoffnung: Eine Mitarbeiterin in London arbeitet am Novavax-Vakzin.

          Vakzin Novavax : Der Impfstoff für Impfskeptiker

          An Impfstoffen gegen das Coronavirus wird weiterhin intensiv geforscht. Der neue Hoffnungsträger von Novavax könnte sogar eine neue Zielgruppe erreichen – denn statt auf mRNA setzt er auf einen anderen „Totimpfstoff“.