http://www.faz.net/-gwz-8yf0m

Künstliche Intelligenz : Gefährliche Algorithmen auf dem Prüfstand

Harmlos unintelligent? Jedenfalls wurde schon mit den ersten automatisierten Entscheideralgorithmen diskriminiert. Bild: dpa

Intelligente Maschinen brauchen mehr Kontrolle. Wie sonst können wir uns vor ihrer Willkür schützen, wenn sie immer öfter über unser Leben entscheiden? Die Bertelsmann-Stiftung präsentiert ein Frühwarnsystem.

          Allmählich wird es wirklich ernst im sozialen Ringen mit den intelligenten Maschinen: Wie können wir verhindern, dass vollkommen undurchsichtige Bots und Algorithmen statt unsereiner Entscheidungen treffen, die uns am Ende selbst schaden – die uns praktisch ausschließen aus demokratischen Prozessen und uns als Kriminelle verdächtigen, die uns bei der Auswahl von Bewerbungen unfair behandeln oder die womöglich Kriterien und Versicherungsprämien nach Herkunft oder Geschlecht diskriminieren?  Einen digitalen TÜV jedenfalls oder eine neutrale Aufsichtsbehörde gibt es noch nicht. Nun haben zwei Berliner Forscher, die verhindern wollen, dass die digitale Revolution am Ende ihre Kinder verschlingt, für die Bertelsmann-Stiftung in Gütersloh zumindest ein Verfahren entwickelt, das als eine Art Frühwarnsystem für Künstliche Intelligenz (KI) eingesetzt werden könnte.

          Joachim  Müller-Jung

          Redakteur im Feuilleton, zuständig für das Ressort „Natur und Wissenschaft“.

          In einer Studie mit dem Titel „Teilhabe, ausgerechnet“  haben Ben Wagner von der Stiftung Wissenschaft und Politik und Kilian Vieth von der Stiftung Neue Verantwortung ein Bewertungssystem entwickelt, das die Algorithmen auf ihre sozialen und politischen Interventionsmöglichkeiten hin abklopfen soll. KI-Systeme bekommen eine Art Risikoprofil verpasst und werden nach ihrem „Teilhabewirkungspotential“ in einer Punkteskala von null bis 14 eingestuft. Die zentrale These der beiden Forscher lautet: „Algorithmen sind das Machtinstrument unserer Zeit“ – künstliche Agenten, die in ihren Berechnungen alles andere als objektiv vorgehen und, sofern es sich um lernende Maschinen handelt, die Welt heute schon nach undurchsichtigen Kriterien interpretieren. Es sind Kriterien, so die beiden Forscher, die ebenso ungerecht sein können wie die Motive der Menschen selbst, die die Algorithmen entwickeln.

          Ein Risikoprofil für die Maschinen-Agenten

          Frank Schirrmacher hatte die Macht der Automaten schon vor Jahren mit dem Begriff „Das Spiel des Lebens“ auf den Punkt gebracht.  Jetzt also soll verhindert werden, dass die Menschen und ihre Instanzen am Ende von den Maschinen gesteuert werden und nicht umgekehrt wie Generationen vorher. „Nur weil ein algorithmisches Entscheidungssystem zum Einsatz kommt, ist der Gesamtprozess nicht weniger anfällig für Fehler und Befangenheit“, schreiben Wagner und Vieth in ihrer Studie. Als Beispiele für sensible Einsatzbereiche nennen sie etwa Computer, die Menschen zu bewerten haben – sei es bei Arbeitgebern, Behörden, Versicherungen oder in sozialen Netzen. Schon lange werden etwa Bewerbungen maschinell vorsortiert. Umfragen zufolge sollen in Großbritannien oder den Vereinigten Staaten schon 60 bis 70 Prozent – vor allem im Niedriglohnsektor – automatisiert vorsortiert werden. Nach welchen Kriterien ganz genau, ist fast nie bekannt. Das war auch schon in den späten achtziger Jahren der Fall, als mit einem der ersten automatisierten Entscheidungssysteme das Management der St. George's Hospital Medical School in London bei der Studienzulassung nachweislich Frauen und Menschen mit afroamerikanischen Namen benachteiligt hatte. 

          Deep Mind - lernende Spieleweltmeister. In der Disziplin ist Künstliche Intelligenz schon praktisch unschlagbar.
          Deep Mind - lernende Spieleweltmeister. In der Disziplin ist Künstliche Intelligenz schon praktisch unschlagbar. : Bild: EPA

          Die zugrundeliegenden Entscheidungsalgorithmen sind auch heute fast immer eine Black Box. Die Details der Künstlichen Intelligenzen werden vor den Firmen für Behörden wie auch für Forscher fast immer bewusst geheimgehalten – oder sie sind  im schlimmsten Fall nicht einmal für die Entwickler zu verstehen, weil sich das lernende System seine eigenen Präferenzen aneignet.

          Weitere Themen

          Wem gehört unser digitaler Zwilling?

          Software-Weckruf : Wem gehört unser digitaler Zwilling?

          Es ist ein neuer Kampf von David gegen Goliath: Wie behalten wir die Kontrolle über unsere digitale Identität? Ein deutscher Unternehmer spricht eine drastische Warnung aus vor Amazon & Co. – und macht einen Vorschlag.

          Ein universaler Code für Lieder? Video-Seite öffnen

          Weltsprache Musik : Ein universaler Code für Lieder?

          Musik - das ist mehr als Kunst, es ist auch eine Weltsprache. In einer erdumspannenden Studie mit seltenen, kurzen Melodien haben Harvard-Forscher gezeigt: Schlaflieder und Tanzmusik erkennt man überall schnell. Machen Sie selbst den Test!

          Topmeldungen

          Der türkische Präsident Erdogan spricht am 20. Februar 2018 in Ankara.

          Krieg in Syrien : Erdogan kündigt Belagerung von Afrin an

          Der türkische Präsident Erdogan will keine kurdische Teilautonomie an der Landesgrenze dulden. Die Kurden befürchten nun, dass sie von Assads Schutzmacht Russland zum Abschuss freigegeben worden sind.

          FAZ Plus Artikel: No-Groko-Kampagne : Kühnerts Showtime

          Kevin Kühnert ist auf Tournee, um eine weitere große Koalition zu verhindern. Spaß am großen Auftritt hat der Juso-Vorsitzende längst gefunden. Aber was will er erreichen? Und weiß er auch, was er tut?

          Newsletter

          Immer auf dem Laufenden Sie haben Post! Abonnieren Sie unsere FAZ.NET-Newsletter und wir liefern die wichtigsten Nachrichten direkt in Ihre Mailbox. Es ist ein Fehler aufgetreten. Bitte versuchen Sie es erneut.
          Vielen Dank für Ihr Interesse an den F.A.Z.-Newslettern. Sie erhalten in wenigen Minuten eine E-Mail, um Ihre Newsletterbestellung zu bestätigen.