http://www.faz.net/-gwz-8yf0m

Künstliche Intelligenz : Gefährliche Algorithmen auf dem Prüfstand

Harmlos unintelligent? Jedenfalls wurde schon mit den ersten automatisierten Entscheideralgorithmen diskriminiert. Bild: dpa

Intelligente Maschinen brauchen mehr Kontrolle. Wie sonst können wir uns vor ihrer Willkür schützen, wenn sie immer öfter über unser Leben entscheiden? Die Bertelsmann-Stiftung präsentiert ein Frühwarnsystem.

          Allmählich wird es wirklich ernst im sozialen Ringen mit den intelligenten Maschinen: Wie können wir verhindern, dass vollkommen undurchsichtige Bots und Algorithmen statt unsereiner Entscheidungen treffen, die uns am Ende selbst schaden – die uns praktisch ausschließen aus demokratischen Prozessen und uns als Kriminelle verdächtigen, die uns bei der Auswahl von Bewerbungen unfair behandeln oder die womöglich Kriterien und Versicherungsprämien nach Herkunft oder Geschlecht diskriminieren?  Einen digitalen TÜV jedenfalls oder eine neutrale Aufsichtsbehörde gibt es noch nicht. Nun haben zwei Berliner Forscher, die verhindern wollen, dass die digitale Revolution am Ende ihre Kinder verschlingt, für die Bertelsmann-Stiftung in Gütersloh zumindest ein Verfahren entwickelt, das als eine Art Frühwarnsystem für Künstliche Intelligenz (KI) eingesetzt werden könnte.

          Joachim  Müller-Jung

          Redakteur im Feuilleton, zuständig für das Ressort „Natur und Wissenschaft“.

          In einer Studie mit dem Titel „Teilhabe, ausgerechnet“  haben Ben Wagner von der Stiftung Wissenschaft und Politik und Kilian Vieth von der Stiftung Neue Verantwortung ein Bewertungssystem entwickelt, das die Algorithmen auf ihre sozialen und politischen Interventionsmöglichkeiten hin abklopfen soll. KI-Systeme bekommen eine Art Risikoprofil verpasst und werden nach ihrem „Teilhabewirkungspotential“ in einer Punkteskala von null bis 14 eingestuft. Die zentrale These der beiden Forscher lautet: „Algorithmen sind das Machtinstrument unserer Zeit“ – künstliche Agenten, die in ihren Berechnungen alles andere als objektiv vorgehen und, sofern es sich um lernende Maschinen handelt, die Welt heute schon nach undurchsichtigen Kriterien interpretieren. Es sind Kriterien, so die beiden Forscher, die ebenso ungerecht sein können wie die Motive der Menschen selbst, die die Algorithmen entwickeln.

          Ein Risikoprofil für die Maschinen-Agenten

          Frank Schirrmacher hatte die Macht der Automaten schon vor Jahren mit dem Begriff „Das Spiel des Lebens“ auf den Punkt gebracht.  Jetzt also soll verhindert werden, dass die Menschen und ihre Instanzen am Ende von den Maschinen gesteuert werden und nicht umgekehrt wie Generationen vorher. „Nur weil ein algorithmisches Entscheidungssystem zum Einsatz kommt, ist der Gesamtprozess nicht weniger anfällig für Fehler und Befangenheit“, schreiben Wagner und Vieth in ihrer Studie. Als Beispiele für sensible Einsatzbereiche nennen sie etwa Computer, die Menschen zu bewerten haben – sei es bei Arbeitgebern, Behörden, Versicherungen oder in sozialen Netzen. Schon lange werden etwa Bewerbungen maschinell vorsortiert. Umfragen zufolge sollen in Großbritannien oder den Vereinigten Staaten schon 60 bis 70 Prozent – vor allem im Niedriglohnsektor – automatisiert vorsortiert werden. Nach welchen Kriterien ganz genau, ist fast nie bekannt. Das war auch schon in den späten achtziger Jahren der Fall, als mit einem der ersten automatisierten Entscheidungssysteme das Management der St. George's Hospital Medical School in London bei der Studienzulassung nachweislich Frauen und Menschen mit afroamerikanischen Namen benachteiligt hatte. 

          Deep Mind - lernende Spieleweltmeister. In der Disziplin ist Künstliche Intelligenz schon praktisch unschlagbar.

          Die zugrundeliegenden Entscheidungsalgorithmen sind auch heute fast immer eine Black Box. Die Details der Künstlichen Intelligenzen werden vor den Firmen für Behörden wie auch für Forscher fast immer bewusst geheimgehalten – oder sie sind  im schlimmsten Fall nicht einmal für die Entwickler zu verstehen, weil sich das lernende System seine eigenen Präferenzen aneignet.

          Über intelligente Software  verwalten Firmen zudem immer häufiger die Arbeiten ihrer Angestellten, sie bewerten sie und versuchen so, die Effizienz zu steigern. Auch in dem Fall sind die Kriterien meist intransparent. In Polen entscheiden inzwischen Algorithmen bei der Arbeitsvermittlung, wer für welchen Job infrage kommt. Von den  Arbeitslosen werden Profile erstellt, in die Alter, Geschlecht und Angaben über eine geistige Behinderung einfließen, anschließend werden sie von den Maschinenagenten in jeweils eins von drei möglichen Arbeitsmarktprogrammen eingeteilt.

          Nicht weniger sensibel als im Arbeitsalltag, weil auch da häufig Persönlichkeitsrechte berührt werden, sind die Algorithmen, die von der Polizei immer öfter eingesetzt werden. „Predictive Policing“ ist in Zürich beispielsweise schon im regulären Einsatz, in Deutschland wird es derzeit in 14 Pilotprojekten getestet. Im Grunde geht es darum, Hinweise zu sammeln, welche Gegenden besonders anfällig sind für kriminelle Übergriffe.

          Künstliche Intelligenz pflegt Vorurteile

          Verhaltenssteuerung durch KI ist durch Google und Facebook in der Werbebranche längst etabliert, und auch andere Firmen greifen immer stärker auf solche Empfehlungsagenten zurück, die maßgeschneiderte Tipps geben sollen. Schließlich sind die Behörden eine der wichtigsten Zielgruppen. Zur Berechnung der Rückfallwahrscheinlichkeit von Straftätern gibt es zumindest in vielen amerikanischen Bundesstaaten schon viele Anwendungen. Und immer droht, was Wissenschaftler der Princeton University vor kurzem in einem „Science“-Paper aufgedeckt haben: Lernende Systeme, die mit steigenden Datenmengen immer besser werden sollen, aber von Menschen auf ihre Aufgabe hin vorher  trainiert werden müssen, sind anfällig für dieselben Klischees und Vorurteile wie die Menschen. Entscheidend ist, mit welcher Art von Daten die Systeme trainiert werden. Die Lösung: ein „Klischeeblocker“. Den Vorschlag jedenfalls bringt ein Psychologe aus Washington in der selben Ausgabe von „Science“ auf. Wie der genau aussehen könnte, von wem er programmiert werden sollte und wie er schließlich Zugriff auf die kommerziellen Softwarepakete bekommen sollte, ist unklar. Christian Bauckhage, Medieninformatiker am Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme in Sankt Augustin, verwundert die Aufdeckung von Vorurteilen in Entscheidungsalgorithmen jedenfalls für nicht: „Im letzten Jahr gab es dazu schon die Beispiele des Microsoft Chatbots ,Tay‘, dem Internet-Trolle rassistische Sprache beibrachten, oder der App ,Google Photos‘, die glaubte, dunkelhäutige User seien Gorillas.“

          Sein Vorschlag: ein Training für KI-Systeme in „Regelblasen“, die Expertenwissen abbilden und vorurteilsfrei sein müssten. Bauckhage: „Solange Künstliche Intelligenz nicht über Selbstreflexion verfügt, und das ist noch nicht der Fall, liegt die Verantwortung bei den Menschen, welche die KI-Systeme entwickeln.“ An dem Punkt setzen auch die beiden Berliner Teilhabe-Forscher Wagner und Vieth an: „Die Kriterien für unseren Klassifizierungsvorschlag stellen die Akteure, die Einbindung in den sozialen Kontext und die potentiellen Konsequenzen für Grundrechte in den Mittelpunkt“ – die Grundrechte für die Betroffenen der KI-Bevormundung, also Menschen. 

             

          Weitere Themen

          Forscher entdecken goldene Totenmaske Video-Seite öffnen

          Sensationsfund : Forscher entdecken goldene Totenmaske

          Gefunden wurde eine Art Mumifizierungswerkstatt mit zum Teil 30 Meter tiefen Schachtgräbern. Der Fundort Sakkara liegt rund 20 Kilometer südlich von Kairo und ist als bedeutende Begräbnisstätte bekannt.

          Topmeldungen

          Reaktionen auf Özils Rücktritt : Von Alarmzeichen bis Wertedebatte

          Justizministerin Barley ist durch den Rücktritt des Gelsenkircheners mit türkischen Wurzeln aus der Nationalelf alarmiert, Unionspolitiker vermissen ein Bekenntnis zu freiheitlichen Werten. Türkische Politiker dagegen loben Özil für seinen Schritt.
          Bundesfinanzminister Olaf Scholz bei einem bilateralen Treffen mit seinem amerikanischen Kollegen Steve Mnuchin im April diesen Jahres in Washington

          Vor Treffen mit EU : Washington will Wegfall von Zöllen vorantreiben

          Zum Abschluss ihres Treffens warnen die G20-Minister vor den weltweiten Risiken eines Handelsstreits. Trumps Finanzminister Mnuchin sagt, es gehe um fairen Handel für sein Land. Scholz sieht keine Alternative zur multilateralen Zusammenarbeit.
          Alexandre Benalla (Mitte links), der mittlerweile entlassene Leibwächter des französischen Präsidenten, macht hier den Weg für seinen ehemaligen Chef Emmanuel Macron frei.

          Wegen Gewalt bei Demo : Ex-Leibwächter von Macron muss vor Gericht

          Die Affäre ist eine der größten Krisen seit Macrons Amtsantritt, die Opposition vermutet einen Vertuschungsskandal. Der französische Innenminister Collomb muss sich am heutigen Montag einer Anhörung im Parlament stellen.

          Weißhelme in Syrien : Die schwierige Rettung der Retter

          In einer spektakulären Aktion wurden mehrere hundert „Weißhelme“ aus Syrien gebracht. Die Zeit zur Rettung der Zivilschützer war knapp geworden. Acht von ihnen werden mit ihren Familien nach Deutschland kommen.

          Newsletter

          Immer auf dem Laufenden Sie haben Post! Abonnieren Sie unsere FAZ.NET-Newsletter und wir liefern die wichtigsten Nachrichten direkt in Ihre Mailbox. Es ist ein Fehler aufgetreten. Bitte versuchen Sie es erneut.
          Vielen Dank für Ihr Interesse an den F.A.Z.-Newslettern. Sie erhalten in wenigen Minuten eine E-Mail, um Ihre Newsletterbestellung zu bestätigen.