http://www.faz.net/-gr3-95jpn

„Angriff der Algorithmen“ : Mitgefangen, mitgehangen

  • -Aktualisiert am

Algorithmen sind nicht die digitalen Alleskönner, für die sie so oft gehalten werden. Bild: Dmitri Broido

Wer bekommt den Job, zahlt wie viel für seine Versicherung – oder muss gar ins Gefängnis? In „Angriff der Algorithmen“ warnt Cathy O’Neil davor, Entscheidungen an Maschinen zu delegieren. Ihr Vorschlag: Ein Hippokratischer Eid für Programmierer.

          Dieses Buch sollte man trotz seines alarmistischen Titels in die Hand nehmen. Denn die Mathematikerin Cathy O’Neil erklärt darin, was geschieht, wenn in immer mehr Lebensbereichen die Ergebnisse algorithmischer Berechnungen die Entscheidungen bestimmen. Entscheidungen darüber, wer einen Job bekommt, wer wie viel für seine Autoversicherung zahlt, ob jemand eine Haft- oder eine Bewährungsstrafe bekommt oder wie lange man in der Hotline warten muss.

          Diese Algorithmen greifen niemanden an. Wie sollten sie, es sind besser oder schlechter gemachte Programme. Das Problem ist, dass sie immer mehr Menschen finden, die ihnen blind vertrauen und die entweder nicht bemerken oder hinnehmen, dass sie dabei Verheerungen anrichten, die sich am besten mit dem Matthäus-Prinzip umschreiben lassen: Wer hat, dem wird gegeben, wer wenig hat, dem wird auch das noch genommen.

          Die digitale F.A.Z. PLUS
          F.A.Z. Edition

          Die digitale Ausgabe der F.A.Z., für alle Endgeräte optimiert und um multimediale Inhalte angereichert

          Mehr erfahren

          Weapons of Math Destruction, WMDs, nennt die Autorin Algorithmen mit solchen schädlichen Auswirkungen, und so heißt das Buch auch im Original: „Mathezerstörungswaffen“. Wobei die Algorithmen nicht die Mathematik zerstören, sondern sie benutzen. Sie durchforsten große Datenmengen nach Mustern, auf die sie Vorhersagen gründen: darüber, ob eine Person einen Kredit zurückzahlen wird, für einen Job geeignet ist oder wie Personal am effizientesten eingesetzt werden kann.

          Dazu sortieren die Algorithmen Menschen in Gruppen, die sich vermutlich ähnlich verhalten werden. Wer aus welchen Gründen auch immer in einer schlecht bewerteten Gruppe landet, hat es schwer, dort wieder herauszukommen.

          Denn, so O’Neil, es werde so gut wie nie erklärt, wie solche Klassifikationen zustande kommen. Viele diese Algorithmen werden mit den besten Absichten eingesetzt, erklärt O’Neil. Sie sollen etwa dazu beitragen, die Gesundheit der Mitarbeiter zu erhalten oder in Bewerbungsverfahren an die Stelle vorurteilsbeladener menschlicher Entscheidungen treten. Doch Algorithmen sind nicht die objektiven Alleskönner, für die sie bisweilen gehalten werden. Zum einen spiegeln sie die Strukturen der Daten, mit denen sie trainiert werden. Haben sie zu wenig Daten, sind die Ergebnisse einfach Unfug. Manchmal suggerieren sie kausale Zusammenhänge, wo gar keine sind, oder beruhen auf fehlerhaften Annahmen.

          Algorithmen werden oft gezielt missbraucht

          Diese Unzulänglichkeiten haben Auswirkungen, denen O’Neil in unterschiedlichen Bereichen nachspürt: Da ist etwa Sarah Wysocki, eine Lehrerin, deren Punktezahl in einem algorithmischen Bewertungsverfahren, das die Stadt Washington eingeführt hatte, um die Schulen zu verbessern, nicht hoch genug war. Obwohl Schüler, Eltern und Kollegen sich einig waren, sie sei eine gute Lehrerin, wurde sie entlassen. An einer Privatschule, die der algorithmischen Bewertung nicht unterlag, fand sie eine neue Stelle. So verlor eine Schule in einem ärmeren Bezirk eine gute Lehrerin, eine Schule in einem besseren Viertel gewann sie hinzu, konstatiert O’Neil. Negative Feedbackschleife nennt sie dieses Phänomen.

          Cathy O’Neil: „Angriff der Algorithmen“

          Neben den gut gemeinten, aber schlecht gemachten WMDs gibt es die fiesen: Sie trimmen etwa entsprechend ihrer Programmierung Arbeitsprozesse auf Effizienz. Dabei heraus kommen Dienstpläne, die den Mitarbeitern keine Chance lassen, einen zweiten Job anzunehmen, zur Abendschule zu gehen oder sich regelmäßig um ihre Kinder zu kümmern. Clopening heißt das Phänomen, dass derselbe Mitarbeiter abends ab- und morgens wieder aufschließt. Fairness, so die Autorin, ist kein Geschäftsmodell.

          Besonders deutlich wird das Matthäus-Prinzip, wenn die Bonität als zentrales Kriterium für die Bewertung von Menschen herangezogen wird. Dann bekommt nicht nur, wer Geld hat, günstigere Kredite, sondern zahlt auch weniger für seine Autoversicherung. Eine Versicherung lässt ausrechnen, wie wahrscheinlich ein potentieller Kunde sich nach Vergleichsangeboten umschauen wird. Ist die Wahrscheinlichkeit gering, bekommt er höhere Beiträge angezeigt. Private Hochschulen lassen Algorithmen in sozialen Medien nach ärmeren Menschen in Krisensituationen suchen, um ihnen teure Kurse aufzuschwatzen, politische Mikrotargeting-Anbieter suchen nach unentschiedenen Wählern, um sie gezielt zu beeinflussen.

          Man sollte eine gesunde Skepsis an den Tag legen

          Doch Algorithmen, daran erinnert das Buch immer wieder, sind keine moralischen Akteure, es geht darum, wie sie verwendet werden. O’Neil berichtet von den Bemühungen des Xerox-Konzerns, herauszufinden, welche Bewerber wahrscheinlich lange im Unternehmen bleiben würden. Die Algorithmen fanden, dass Menschen mit einem langen Anfahrtsweg ihre Stelle eher aufgeben. Sie fanden aber auch, dass diese Menschen oft aus ärmeren Wohngegenden kommen.

          Statt sie auszuschließen, verzichtete der Konzern darauf, diese Korrelation zu berücksichtigen. Er opferte ein wenig Effizienz für mehr Gerechtigkeit, so die Autorin. Algorithmen, die, mit Augenmaß eingesetzt, die Welt besser machen können, seien durchaus möglich. Als Beispiel verweist O’Neil auf einen „Sklaverei-Detektor“, der Hinweise gibt, wo es in einer Produktionskette nicht mit rechten Dingen zugehen kann.

          Prädiktive Modelle, Programme, die alles Mögliche vorhersagen wollen, werden in Zukunft wie Pilze aus dem Boden schießen, warnt die Autorin. Sie ruft dazu auf, eine gesunde Skepsis gegenüber ihren Versprechungen an den Tag zu legen. Zudem gelte es, Normen aufzustellen, denen Algorithmen, die über Menschen urteilen, genügen müssen, und eine Art hippokratischen Eid zu verlangen für die, die sie programmieren. Und es gelte, die Menschen in den Blick zu nehmen, die vom Einsatz von Algorithmen betroffen sind, um abzuwägen, welche Nachteile man ihnen zumuten will.

          Die Entwicklung hin zu algorithmenbasierten Entscheidungen in immer mehr Lebensbereichen ist in den Vereinigten Staaten weiter fortgeschritten als hierzulande. Viel von dem, was O’Neil beschreibt, trifft vor allem auf amerikanische Verhältnisse zu. Wir sind noch in der glücklichen Lage, ihr Buch als Warnung zu lesen, eine ähnliche Entwicklung zu vermeiden.

          Weitere Themen

          „Volksfest in Sachsen“ Video-Seite öffnen

          Bohemian Browser Ballett : „Volksfest in Sachsen“

          Das Satirevideo des FUNK-Kanals Bohemian Browser Ballett hat vor allem bei der AfD für Unmut gesorgt. Mittlerweile wird den Filmemachern mit Mord gedroht.

          Manche baden gerne lau

          TV-Kritik: Anne Will : Manche baden gerne lau

          Das gilt nicht zuletzt für den „Spiegel“ im Umgang mit der Bundeskanzlerin. Immerhin versuchte Anne Will ihre Zuschauer über den Hintergrund einer politischen Krise zu informieren, die wohl nicht mit einem Tölpel als Minister zu erklären ist.

          Topmeldungen

          Kommentar zur Causa Maaßen : Lächerliche SPD

          Aus der Causa Maaßen wird eine Causa SPD. Die Sozialdemokraten sind überzeugt, dass sie Standhaftigkeit im antifaschistischen Kampf zeigen. Tatsächlich offenbart ihr Verhalten tiefe Verunsicherung.

          Newsletter

          Immer auf dem Laufenden Sie haben Post! Abonnieren Sie unsere FAZ.NET-Newsletter und wir liefern die wichtigsten Nachrichten direkt in Ihre Mailbox. Es ist ein Fehler aufgetreten. Bitte versuchen Sie es erneut.
          Vielen Dank für Ihr Interesse an den F.A.Z.-Newslettern. Sie erhalten in wenigen Minuten eine E-Mail, um Ihre Newsletterbestellung zu bestätigen.