https://www.faz.net/-gqz-a0syh

Diskriminierende Algorithmen : Der Rassismus im System

  • -Aktualisiert am

Im Raster der Künstlichen Intelligenz: Gesichtserkennungssoftware erkennt schwarze Menschen oft schlechter als weiße. Bild: Shutterstock

Künstliche Intelligenzen sollten die Ungerechtigkeit der analogen Welt beenden und eine neue digitale Objektivität errichten. In Wahrheit aber ist diese Objektivität sehr exklusiv, sie gilt für weiße Menschen. Für schwarze Menschen kann das gefährliche Folgen haben.

          7 Min.

          Warum sie sich erst eine weiße Plastikmaske aufsetzen musste, damit eine Webcam in ihr einen Menschen erkannte, erzählt die Computerwissenschaftlerin Joy Buolamwini in einem Ted-Talk von 2016. Damals, Buolamwini stand kurz vor ihrem Abschluss am Massachusetts Institute of Technology, baute sie für ein Seminarprojekt einen Spiegel mit integrierter Webcam, der aus seinen Betrachterinnen Löwen machen sollte. So ähnlich wie heute der Hundefilter auf Snapchat. Doch als Buolamwini sich vor den Spiegel stellte, geschah nichts. Die Gesichtserkennungssoftware der Webcam sah keinen Menschen vor sich. Bei ihren Mitstudenten funktionierte die Software dagegen ohne Probleme. Buolamwinis Mitstudentinnen waren weiß. Sie selbst ist Schwarz.

          Ein Algorithmus in einer Gesichtserkennungssoftware erzeugt auf Grundlage eines Inputs einen Output. Er verarbeitet ein Bild und entscheidet, ob auf dem Bild ein menschliches Gesicht zu sehen ist oder nicht. Das sind die einzigen beiden Entscheidungen, die er am Ende treffen kann: 0 oder 1, ja oder nein, menschliches Gesicht oder kein menschliches Gesicht. Um zu lernen, wie ein Gesicht überhaupt aussieht, wird der Algorithmus vorher mit Beispielbildern trainiert. Irgendwann erkennt er in den Bildern wiederkehrenden Muster, Merkmale und Strukturen. Genau hier liegt das Problem. Wenn das Set an Trainingsbildern nicht divers sei, sagt Buolamwini, dann seien die Gesichter, die zu stark von der erstellten Norm abweichen, für den Algorithmus schwieriger zu erkennen. Eine Gesichtserkennungssoftware, die nur mit Bildern von weißen Menschen trainiert wird, sieht nichtweiße Menschen nicht. In der Informatik gibt es dafür einen eigenen Begriff: „Garbage in, Garbage out“. Müll rein, Müll raus.

          Testen Sie unsere Angebote.
          Jetzt weiterlesen

          Testen Sie unsere Angebote.
          F.A.Z. PLUS:

            FAZ.NET komplett

          F.A.Z. PLUS:

            im F.A.Z. Digitalpaket

          : Aktion

          Diese und viele weitere Artikel lesen Sie mit F+

          Schlag auf Schlag: Nicht jeder, der im Büro sitzt, ist produktiv.

          Langeweile im Beruf : 120.000 Euro für zwei Mails am Tag

          Es ist ein großes Tabu des Büroalltags: Manche Angestellte haben kaum etwas zu tun. Selbst hochbezahlte Anwälte klagen über Langeweile. Wie kann das sein?
          Wie viele Leute sich allein ins Grüne trauen, kann auch ein Gradmesser für die allgemeine Sicherheit einer Gegend sein (Symbolbild).

          Im Bikini in den Park : Dann gucken sie eben!

          Es ist heiß, und in der Wohnung ist es noch heißer. Also raus in den Park. Frauen kostet es häufiger Überwindung, sich allein im Bikini auf die grüne Wiese zu legen. Warum eigentlich? Und lohnt es sich?
          Der Traum vom Familienglück in den eigenen vier Wänden kann auch auf Zeit gelebt werden.

          Für junge Akademiker : Ob sich das Eigenheim auf Zeit lohnt

          Für Familien ohne Kapital ist es schwierig ein stadtnahes Eigenheim zu finanzieren. Jedoch kann man den Vermieter gegen eine Bank tauschen – und das Haus im Alter wieder verkaufen.