Flüchtlingspolitik : Ist das ein Flüchtling oder ein Terrorist?
- -Aktualisiert am
Ankunft auf Lesbos: Ein Software von IBM soll für jeden Flüchtling bei der Registrierung einen Score errechnen und potentielle Terroristen entlarven. Bild: AFP
IBM hat eine Software entwickelt, mit der Flüchtlinge registriert werden. Sie errechnet einen Wert, der den Einzelnen als Flüchtling oder als Terroristen ausweist. Das Konzept erscheint zweifelhaft.
Millionen Menschen stehen vor den Toren Europas. Flüchtlinge aus Syrien harren an der Grenze zur Türkei aus. Die Flüchtlingskrise ist eine der größten politischen Herausforderungen seit Jahrzehnten. Die Sicherheitsbehörden beschäftigt die Frage, ob es sich bei den Flüchtlingen um Schutzsuchende handelt oder ob sich potentielle Terroristen unter ihnen befinden. Zwei der Paris-Attentäter reisten über Griechenland als Flüchtlinge ein, zwei weitere IS-Terroristen, die als Flüchtlinge kamen, nahm die Polizei in Graz fest; dass der IS die Flüchtlingsbewegung nutzt, um Attentäter in großem Stil in Europa einzuschleusen, ist in den Sicherheitsbehörden inzwischen feste Erkenntnis.
Wie das Magazin „Defense One“ berichtet, hat der Technologiekonzern IBM nun eine Software entwickelt, mit der die Registrierung erleichtert werden soll. i2 EIA (Enterprise Insight Analysis) soll aus Datensätzen wie Reisepasslisten und Presseberichten Personen filtern, die mit Terroraktivitäten in Verbindung stehen könnten. Die Software errechnet einen Wert, der den Einzelnen als Flüchtling oder Terroristen ausweist. Es gehe darum, „schwarze Schafe“ von der Herde zu trennen, schreibt der Autor Patrick Trucker.
Der Einzelne wird auf Zahlen reduziert
Der Chefstratege von IBM, Andrew Borene, wird mit den Worten zitiert: „Es ist wie ein Credit Score. (...) Für große finanzielle Entscheidungen kann jemand mit einem hohen Score immer noch ein hohes Risiko darstellen. Jemand mit einem mittleren Credit Score ist aber eine sichere Wette.“ Der Score zeigt eine Wahrscheinlichkeit an, ähnlich einem Kreditausfallrisiko, mit der ein Flüchtling seine Identität fingiert und bei der Registrierung schwindelt. Wie genau der Wert berechnet wird und wo das Verfahren schon zum Einsatz kommt, wollte der Konzern auf Anfrage nicht mitteilen. Ein Analyst soll aber in dem Beziehungsnetz sofort erkennen können, ob jemand ein Gefährder ist.
Das Verstörende daran ist nicht nur, dass hier Kreditwürdigkeit und Sicherheit gleichgesetzt werden, sondern dass das Individuum auf eine Zahlenlogik reduziert wird. Der Flüchtling an der Grenze verkörpert ja keinen Score, sondern ein Schicksal. Deshalb besteht auch ein individuelles Recht auf Asyl. Die Tech-Konzerne sind jedoch von der Idee beseelt, dass sich alle Probleme dieser Welt in Zahlen beschreiben und mit Formeln lösen lassen. „Solutionism“ nennt das der Kritiker Evgeny Morozov. i2 EIA wurde als Werkzeug beworben, das sich mit computerforensischen Methoden durch gigantische Datensätze wühlt und Spuren von Verbrechern entdeckt. Doch kann eine Software wirklich erkennen, ob jemand ein Terrorist ist, und nach der Methode des „Predictive Policing“ Bombenanschläge vorhersagen? Experten haben daran Zweifel.
Die Gefahr der Vorverurteilung ist groß
Das methodische Problem besteht darin, dass man Anschläge anders als etwa Kreditkartenbetrug, der massenhaft vorkommt und dessen Transaktionen robuste Daten liefern, um Muster abzuleiten, schon allein aufgrund der Unterschiedlichkeit der Ausführung nicht so einfach quantifizieren kann. Terroristen hinterlassen keine „Signatur“, die es erlauben würde, Regelmäßigkeiten zu erkennen. Der Sicherheitsforscher Bruce Schneier, Autor des Buchs „Data and Goliath: The Hidden Battles to Collect Your Data and Control Your World“, schreibt auf seinem Blog: „Terroristische Anschläge sind sehr selten. Das bedeutet, dass selbst hochakkurate Terrorfrühwarnsysteme derart mit falschem Alarm geflutet würden, dass sie nutzlos sind.“ Statistiker kennen das Problem der „false positives“: Ereignisse, die noch nie aufgetreten sind, können auch nicht vorhergesagt werden.
Selbst wenn mit hinreichender Wahrscheinlichkeit bestimmt werden kann, dass jemand einen Anschlag verübt, rechtfertigt dies dann die Ausweisung durch einen maschinell erzeugten Score? Das „Predictive Policing“ hat in Amerika schon zu grotesken Ergebnissen geführt. Im Sommer 2014 klingelte die Polizei an der Tür von Robert McDaniel. Der junge Mann, ein Highschool-Abbrecher, wohnte in einem Problemviertel von Chicago, war aber nicht polizeibekannt. Die Polizeibeamtin offenbarte ihm brüsk: „Wenn du irgendein Verbrechen begehst, wird das ernsthafte Konsequenzen haben. Wir beobachten dich!“ McDaniel war verdutzt. Was er nicht wusste: Er war auf der „Heat List“ gelandet – einem Index von 400 Personen, die am wahrscheinlichsten ein Verbrechen begehen. McDaniel hatte das Pech, dass er im „falschen“ Viertel lebte. Die Eigenschaften „Schulabbrecher“ und „kriminelles Umfeld“ machten aus ihm einen potentiellen Täter. Solche Vorverurteilungen sind auch bei IBMs Software nicht auszuschließen. Ein „falsches“ Herkunftsland, ein „falscher“ Freundeskreis, ein paar Korrelationen zu viel, und das Bleiberecht ist verwirkt. Die Gefahr besteht darin, dass Entscheidungen automatisiert werden. Die Frage stellt sich auch nach dem Rechtsbehelf: Kann man eine Maschine verklagen, wenn sie irrtümlich falsche Parameter zur Grundlage ihrer Kalkulation gemacht hat?
Der Computer bewertet
Der Rechtswissenschaftler Frank Pasquale, Autor des Buchs „The Black Box Society“, sagt im Gespräch mit dieser Zeitung: „Um ein solches Programm legitim einzusetzen, muss ein klarer Hinweis an die bewerteten Flüchtlinge ergehen. Er oder sie muss die Möglichkeit haben, den Score vor einer unabhängigen Instanz anfechten zu können. Leider werden solche Schutzmechanismen selten gewährt. Es mündet höchstwahrscheinlich in eine computerisierte ,Star Chamber‘.“ Die Urteile dieser Gerichtshöfe (Court of Star Chamber), wie sie König Eduard II. im 14. Jahrhundert in England einsetzte, waren unanfechtbar, die Verhandlungen geheim. Pasquale befürchtet, dass es sich bei i2 EIA um einen „Testlauf“ handelt, die Bürger auch in anderen Bereichen des öffentlichen Lebens wie der Strafverfolgung oder Steuereinziehung zu „scoren“. Die chinesische Regierung will von 2020 an ein Bewertungssystem einführen, das den Bürgern in Abhängigkeit ihrer Online-Aktivitäten eine Verhaltensnote gibt. Der Staat definiert so, wer ein guter und ein schlechter Bürger ist.
Der belgische Soziologe Jean-Claude Paye sieht uns auf dem Weg in eine „Über-Ich-Gesellschaft“, die ein absolutes Wissen über den Einzelnen generiert. Auch IBMs Programm würde in diesem Sinne funktionieren, dass es keinen konkreten Adressaten kennt und die normative Bewertung einer übergeordneten Instanz, dem Computer, überlässt. Der Algorithmus entscheidet, wer einreisen darf. Die Folge dieser Technik ist, dass man sich nicht vor staatlichen Sanktionen aufgrund eines Gesetzesverstoßes fürchtet, sondern vor dem „schlechten“ Score, den eine Maschine erzeugt. Sie ist das Gewissen, das Über-Ich in der Gesellschaft.