https://www.faz.net/aktuell/feuilleton/debatten/ibm-software-i2-eia-erkennt-terroristen-unter-fluechtlingen-14073593.html

Flüchtlingspolitik : Ist das ein Flüchtling oder ein Terrorist?

  • -Aktualisiert am

Ankunft auf Lesbos: Ein Software von IBM soll für jeden Flüchtling bei der Registrierung einen Score errechnen und potentielle Terroristen entlarven. Bild: AFP

IBM hat eine Software entwickelt, mit der Flüchtlinge registriert werden. Sie errechnet einen Wert, der den Einzelnen als Flüchtling oder als Terroristen ausweist. Das Konzept erscheint zweifelhaft.

          4 Min.

          Millionen Menschen stehen vor den Toren Europas. Flüchtlinge aus Syrien harren an der Grenze zur Türkei aus. Die Flüchtlingskrise ist eine der größten politischen Herausforderungen seit Jahrzehnten. Die Sicherheitsbehörden beschäftigt die Frage, ob es sich bei den Flüchtlingen um Schutzsuchende handelt oder ob sich potentielle Terroristen unter ihnen befinden. Zwei der Paris-Attentäter reisten über Griechenland als Flüchtlinge ein, zwei weitere IS-Terroristen, die als Flüchtlinge kamen, nahm die Polizei in Graz fest; dass der IS die Flüchtlingsbewegung nutzt, um Attentäter in großem Stil in Europa einzuschleusen, ist in den Sicherheitsbehörden inzwischen feste Erkenntnis.

          Wie das Magazin „Defense One“ berichtet, hat der Technologiekonzern IBM nun eine Software entwickelt, mit der die Registrierung erleichtert werden soll. i2 EIA (Enterprise Insight Analysis) soll aus Datensätzen wie Reisepasslisten und Presseberichten Personen filtern, die mit Terroraktivitäten in Verbindung stehen könnten. Die Software errechnet einen Wert, der den Einzelnen als Flüchtling oder Terroristen ausweist. Es gehe darum, „schwarze Schafe“ von der Herde zu trennen, schreibt der Autor Patrick Trucker.

          Der Einzelne wird auf Zahlen reduziert

          Der Chefstratege von IBM, Andrew Borene, wird mit den Worten zitiert: „Es ist wie ein Credit Score. (...) Für große finanzielle Entscheidungen kann jemand mit einem hohen Score immer noch ein hohes Risiko darstellen. Jemand mit einem mittleren Credit Score ist aber eine sichere Wette.“ Der Score zeigt eine Wahrscheinlichkeit an, ähnlich einem Kreditausfallrisiko, mit der ein Flüchtling seine Identität fingiert und bei der Registrierung schwindelt. Wie genau der Wert berechnet wird und wo das Verfahren schon zum Einsatz kommt, wollte der Konzern auf Anfrage nicht mitteilen. Ein Analyst soll aber in dem Beziehungsnetz sofort erkennen können, ob jemand ein Gefährder ist.

          Das Verstörende daran ist nicht nur, dass hier Kreditwürdigkeit und Sicherheit gleichgesetzt werden, sondern dass das Individuum auf eine Zahlenlogik reduziert wird. Der Flüchtling an der Grenze verkörpert ja keinen Score, sondern ein Schicksal. Deshalb besteht auch ein individuelles Recht auf Asyl. Die Tech-Konzerne sind jedoch von der Idee beseelt, dass sich alle Probleme dieser Welt in Zahlen beschreiben und mit Formeln lösen lassen. „Solutionism“ nennt das der Kritiker Evgeny Morozov. i2 EIA wurde als Werkzeug beworben, das sich mit computerforensischen Methoden durch gigantische Datensätze wühlt und Spuren von Verbrechern entdeckt. Doch kann eine Software wirklich erkennen, ob jemand ein Terrorist ist, und nach der Methode des „Predictive Policing“ Bombenanschläge vorhersagen? Experten haben daran Zweifel.

          Die Gefahr der Vorverurteilung ist groß

          Das methodische Problem besteht darin, dass man Anschläge anders als etwa Kreditkartenbetrug, der massenhaft vorkommt und dessen Transaktionen robuste Daten liefern, um Muster abzuleiten, schon allein aufgrund der Unterschiedlichkeit der Ausführung nicht so einfach quantifizieren kann. Terroristen hinterlassen keine „Signatur“, die es erlauben würde, Regelmäßigkeiten zu erkennen. Der Sicherheitsforscher Bruce Schneier, Autor des Buchs „Data and Goliath: The Hidden Battles to Collect Your Data and Control Your World“, schreibt auf seinem Blog: „Terroristische Anschläge sind sehr selten. Das bedeutet, dass selbst hochakkurate Terrorfrühwarnsysteme derart mit falschem Alarm geflutet würden, dass sie nutzlos sind.“ Statistiker kennen das Problem der „false positives“: Ereignisse, die noch nie aufgetreten sind, können auch nicht vorhergesagt werden.

          Attentäter von Paris: Der Mann, der Anfang Januar eine Polizeiwache angriff und von der Polizei erschossen wurde, verfügte über sieben Identitäten. Eine davon lautete auf den Namen Walid Salihi, er hatte zuletzt in einem Flüchtlingsheim in Recklinghausen gewohnt.
          Attentäter von Paris: Der Mann, der Anfang Januar eine Polizeiwache angriff und von der Polizei erschossen wurde, verfügte über sieben Identitäten. Eine davon lautete auf den Namen Walid Salihi, er hatte zuletzt in einem Flüchtlingsheim in Recklinghausen gewohnt. : Bild: Landeskriminalamt Nordrhein-Westfalen

          Selbst wenn mit hinreichender Wahrscheinlichkeit bestimmt werden kann, dass jemand einen Anschlag verübt, rechtfertigt dies dann die Ausweisung durch einen maschinell erzeugten Score? Das „Predictive Policing“ hat in Amerika schon zu grotesken Ergebnissen geführt. Im Sommer 2014 klingelte die Polizei an der Tür von Robert McDaniel. Der junge Mann, ein Highschool-Abbrecher, wohnte in einem Problemviertel von Chicago, war aber nicht polizeibekannt. Die Polizeibeamtin offenbarte ihm brüsk: „Wenn du irgendein Verbrechen begehst, wird das ernsthafte Konsequenzen haben. Wir beobachten dich!“ McDaniel war verdutzt. Was er nicht wusste: Er war auf der „Heat List“ gelandet – einem Index von 400 Personen, die am wahrscheinlichsten ein Verbrechen begehen. McDaniel hatte das Pech, dass er im „falschen“ Viertel lebte. Die Eigenschaften „Schulabbrecher“ und „kriminelles Umfeld“ machten aus ihm einen potentiellen Täter. Solche Vorverurteilungen sind auch bei IBMs Software nicht auszuschließen. Ein „falsches“ Herkunftsland, ein „falscher“ Freundeskreis, ein paar Korrelationen zu viel, und das Bleiberecht ist verwirkt. Die Gefahr besteht darin, dass Entscheidungen automatisiert werden. Die Frage stellt sich auch nach dem Rechtsbehelf: Kann man eine Maschine verklagen, wenn sie irrtümlich falsche Parameter zur Grundlage ihrer Kalkulation gemacht hat?

          Der Computer bewertet

          Der Rechtswissenschaftler Frank Pasquale, Autor des Buchs „The Black Box Society“, sagt im Gespräch mit dieser Zeitung: „Um ein solches Programm legitim einzusetzen, muss ein klarer Hinweis an die bewerteten Flüchtlinge ergehen. Er oder sie muss die Möglichkeit haben, den Score vor einer unabhängigen Instanz anfechten zu können. Leider werden solche Schutzmechanismen selten gewährt. Es mündet höchstwahrscheinlich in eine computerisierte ,Star Chamber‘.“ Die Urteile dieser Gerichtshöfe (Court of Star Chamber), wie sie König Eduard II. im 14. Jahrhundert in England einsetzte, waren unanfechtbar, die Verhandlungen geheim. Pasquale befürchtet, dass es sich bei i2 EIA um einen „Testlauf“ handelt, die Bürger auch in anderen Bereichen des öffentlichen Lebens wie der Strafverfolgung oder Steuereinziehung zu „scoren“. Die chinesische Regierung will von 2020 an ein Bewertungssystem einführen, das den Bürgern in Abhängigkeit ihrer Online-Aktivitäten eine Verhaltensnote gibt. Der Staat definiert so, wer ein guter und ein schlechter Bürger ist.

          Der belgische Soziologe Jean-Claude Paye sieht uns auf dem Weg in eine „Über-Ich-Gesellschaft“, die ein absolutes Wissen über den Einzelnen generiert. Auch IBMs Programm würde in diesem Sinne funktionieren, dass es keinen konkreten Adressaten kennt und die normative Bewertung einer übergeordneten Instanz, dem Computer, überlässt. Der Algorithmus entscheidet, wer einreisen darf. Die Folge dieser Technik ist, dass man sich nicht vor staatlichen Sanktionen aufgrund eines Gesetzesverstoßes fürchtet, sondern vor dem „schlechten“ Score, den eine Maschine erzeugt. Sie ist das Gewissen, das Über-Ich in der Gesellschaft.

          Weitere Themen

          Darauf ein Prosit Martin Luthers

          Bücher und Autographen : Darauf ein Prosit Martin Luthers

          Einem Reformator ins Glas und Dichtern über die Schulter schauen: Bei den Auktionen von Handschriften, Büchern und Drucken bei Stargardt, Venator & Hanstein und Koller gibt es für Sammler wieder viel zu entdecken.

          Auf die Barrikaden

          Proteste in Frankreich : Auf die Barrikaden

          Der französische Präsident hat sein Versprechen gebrochen, auf andere Art Politik zu machen. Aber ist ein arroganter, vertikaler Politikstil gleich gewalttätig? Der Sinn der Behauptung ist durchsichtig.

          Topmeldungen

          Winterdürren wie hier am Baells-Reservoir Mitte März in der spanischen Region Bergueda könnten häufiger werden.

          Erderwärmung : Das steht im neuen Bericht des Weltklimarates

          Der Weltklimarat legt einen Synthesebericht seiner bisherigen Erkenntnisse vor. Die Botschaft ist klar: Die Erderwärmung kann noch begrenzt werden – wenn umgehend gehandelt wird.
          Hier wird der Hunger der Industrie gestillt: der Sächsische Tagebau Nochten.

          Bergbau in der Lausitz : Kraftwerke, die nach Kohle schreien

          Der Kohleausstieg ist beschlossen, aber die Braunkohlekraftwerke in der Lausitz haben plötzlich Hochkonjunktur. Die Mitarbeiter wollen vor allem wissen, wie es weitergeht.
          Fingerzeig: Elon Musk, hier fotografiert bei einem Besuch der Tesla-Fabrik In Grünheide.

          Mit Kacke-Emoji : Was Elon Musk für die Presse übrig hat

          Elon Musk hat einen derben Humor. Doch schauen wir auf seinen Umgang mit Twitter und der demokratischen Öffentlichkeit, ist schnell Schluss mit der Witzischkeit. Eine Anfrage an press@twitter.com.

          Newsletter

          Immer auf dem Laufenden Sie haben Post! Die wichtigsten Nachrichten direkt in Ihre Mailbox. Sie können bis zu 5 Newsletter gleichzeitig auswählen Es ist ein Fehler aufgetreten. Bitte versuchen Sie es erneut.
          Vielen Dank für Ihr Interesse an den F.A.Z.-Newslettern. Sie erhalten in wenigen Minuten eine E-Mail, um Ihre Newsletterbestellung zu bestätigen.