https://www.faz.net/-gqz-99otf

Was wir von Algorithmen wissen : Der Skandal um Cambridge Analytica ist inszeniert

Durchmisst die Welt der Algorithmen: Lorena Jaume-Palasí. Bild: dts Nachrichtenagentur

Lorena Jaume-Palasí ist Mitgründerin der Initiative „Algorithm Watch“. Sie forscht zum Datenschutz und plädiert für eine Ethik der Digitalisierung. Von zusätzlicher Gesetzgebung hält sie nichts. Ein Interview.

          Wie erklären Sie jemandem, den Sie zum ersten Mal sehen, Ihre Arbeit?

          Elena Witzeck

          Redakteurin im Feuilleton.

          Algorithm Watch erforscht und prüft Automatisierungsprozesse in Bezug auf Gerechtigkeit und Fairness. Viele komplexe Prozesse in der Mitte der Gesellschaft lassen sich heutzutage automatisieren. Dabei können Menschen manipuliert oder diskriminiert werden, weil sie in statistische Schubladen gesteckt werden. Umgekehrt kann Automatisierung aber auch Diskriminierungsmuster erkennen. Wir prüfen beides.

          War das der Anlass dafür, Algorithm Watch zu gründen?

          Wir wissen wenig über die sozialen und ethischen Folgen von Automatisierung. Es gibt kaum Forschung und wenn, ist sie oft auf Sicherheitsrisiken beschränkt und betrachtet keine Diskriminierungs- oder Manipulationsrisiken. Die Debatte, die wir über Automatisierungsprozesse führen, ist von Angst und Ungewissheit bestimmt. Mit der Gründung von Algorithm Watch wollten wir für mehr Sachlichkeit sorgen, Zahlen und Fakten sammeln, daraus Theorien entwickeln und diese in die Debatte einbringen.

          Immer mehr Entscheidungen werden auf Basis von Algorithmen getroffen.

          Algorithmen werden überall und schon seit langem eingesetzt. Wir benutzen Bankautomaten, die Ampelschaltung ist automatisch, und medizinische Geräte geben einen automatischen Befund ab. Die Nutzung von komplexeren Algorithmen, die große Datenmengen brauchen, befindet sich dagegen noch in einem sehr frühen Stadium. Die meisten Unternehmen in Deutschland und der EU haben zu kleine Datenbanken, um diese Verfahren nutzen zu können. Sie fangen aber damit an. Jeder Algorithmus kann Diskriminierung, Manipulation oder einen Mehrwert in sich tragen. Deshalb arbeiten wir an einem Mapping der Automatisierungsverfahren in Deutschland. Zugleich schauen wir uns die Umsetzung in der Praxis an, etwa im Personalmanagement, um Alltagsprobleme zu erforschen und ethische Normen auszuarbeiten.

          Vor zwei Jahren haben Sie Algorithm Watch auf der Konferenz re:publica vorgestellt. Häufig ist die Rede von Filterblasen, die durch Automatisierung entstehen.

          Die Angst vor der Filterblase ist die Angst vor dem, was wir Propaganda nennen. Es gibt reichlich Forschung zu Propaganda, und die Frage, ob die Menschen sich trotz Filterblase informieren können, beantwortet die Studienlage recht deutlich: In Deutschland werden andersartige Meinungen sehr wohl wahrgenommen. Das ist es, was unser Land von China unterscheidet. Deutschland ist in vielen politischen Fragen polarisiert – und beide Pole kennen einander.

          Sie haben nichts gegen Filterblasen?

          Problematisch ist, dass neue Akteure wie die sozialen Medien einen Teil der Öffentlichkeit moderieren. Das war traditionell etwas, was in den Händen des Staates und der Presse lag. Diese neuen Akteure haben aber wirtschaftliche Interessen. Andererseits stellen soziale Medien eine Infrastruktur zur Verfügung, mit der Menschen ihre Grundrechte ausüben können. Wenn wir ihnen dieselben Pflichten wie der Presse oder dem Staat auferlegen, wird das problematisch, denn im Umkehrschluss müsste man ihnen dieselben Privilegien und Rechte verleihen. Die Demokratie würde darunter leiden.

          Algorithmen sind nicht die digitalen Alleskönner, für die sie so oft gehalten werden.

          Algorithmen sind von Menschen gemacht, die Interessen verfolgen. Das hat zuletzt der Facebook-Skandal gezeigt. Was sollten wir aus der Cambridge-Analytica-Affäre lernen?

          Das ist ein Beispiel für die Inszenierung eines Skandals. Cambridge Analytica hat seine algorithmische Methode der „Psychometrics“ nie benutzt. Ob sie funktionieren würde, wissen wir nicht. Die Statistiken zeigen: Die Wähler von Trump waren diejenigen, die Fox News verfolgen und kaum soziale Medien nutzen. Die Brexit-Befürworter waren in den sozialen Medien ebenfalls deutlich unterrepräsentiert. Demgegenüber war die Generation, die sich über Social Media informiert und austauscht, mehrheitlich gegen den Brexit.

          Aber mehr Transparenz würde Plattformen wie Facebook schon guttun.

          Algorithm Watch beteiligt sich an einer internationalen Expertengruppe, die einen Ethik-Katalog für Facebook ausarbeitet. Speziell Transparenz ist kein Wert an sich, sondern nur ein Mittel. Saudi-Arabien benutzt Transparenz als Mittel der Zensur und hat eine Online-Plattform errichtet, auf der Menschen vorschlagen können, was als Nächstes zensiert werden soll. Algorithm Watch denkt an Ziele: Automatisierung per se ist nicht schädlich, muss aber ständig auf Schäden überprüft werden. Manchmal ist Transparenz dafür ein Mittel, je nach Kontext können aber andere Mittel geeigneter sein. Das Feststellen von Schäden ist aber nur die erste Stufe. Wir setzen uns für eine demokratische Kontrolle von Automatisierungsverfahren ein.

          Gesetzliche Regulierungen sind immer einen Schritt hinterher. Wie lässt sich damit umgehen?

          Indem man nicht die Technik reguliert, sondern die menschlichen Konflikte und Risiken, die sich aus dem Umgang mit Technologie ergeben. Nehmen wir das Auto: Gesetze begrenzen nicht die Anzahl der PS, sondern die Geschwindigkeit auf der Straße. Nicht die Technik wird reguliert, sondern der menschliche Einsatz.

          Einen „Algorithmus-TÜV“ halten Sie für unrealistisch, weil sich Algorithmen in verschiedenen Einsatzgebieten nicht von einer Institution überprüfen ließen. Gesetzliche Bevormundung lehnen Sie ab, Unternehmen halten Sie bei der Kontrolle für nicht verlässlich. Bleibt die Verantwortung am Nutzer hängen?

          Ich habe nichts gegen Gesetze. Wir haben gute und lang tradierte Gesetze, die individualrechtliche Schäden längst regulieren. Die Frage ist: Brauchen wir neue, speziellere? Automatisierung verändert die Gesellschaft und unser Verantwortungssystem nicht grundsätzlich. Auch die gesellschaftlichen Folgen der Regulierung ließen sich schwer abschätzen. Algorithmen sind nur ein Skelett und abhängig vom Kontext. Ein Algorithmus für Filmkuratierung kann auch in der Krebsforschung verwendet werden. Die Daten, die Auswertungsmethoden, die Prozessarchitektur machen den Unterschied. Ein Sozialwissenschaftler kann die Statistik eines Kardiologen nicht interpretieren. Ein Richter hingegen muss den gesamten Kontext betrachten, bevor er urteilen kann. Dasselbe gilt hier. Bei der Regulierung sollte nicht Technologie im Mittelpunkt stehen, sondern den Mensch und das Gesellschaftliche.

          Gibt es Ihrer Meinung nach dennoch gesetzliche Möglichkeiten?

          Wir fordern technikneutrale Regulierungen und Anpassungen. Individualrechtlich haben wir eine gute gesetzliche Grundlage. Es gibt bereits Behörden, die Kontexte prüfen, wie etwa die Bundesanstalt für Finanzdienstleistungsaufsicht beim Hochfrequenzhandel oder das Bundesinstitut für Arzneimittel und Medizinprodukte. In solchen Behörden könnte eine sinnvolle Überprüfung vorgenommen werden. Hat etwa das Institut für Arzneimittel beim Thema personalisierte Medikamente die nötigen Rechtsgrundlagen und Wissenskompetenzen, um nicht nur die Chemie, sondern auch die algorithmische Methodik zu prüfen?

          Was halten Sie vom gerade wiederbelebten Projekt einer digitalen Charta?

          Wir sehen keinen Bedarf für eine digitale Grundrechtecharta.

          Sie begleiten auch Projekte zur Internet Governance in Asien und Afrika. Was könnten wir von dort lernen?

          Diese Länder haben ganz andere Probleme und Wahrnehmungen. Die westlichen Länder meinen, ihre Gesetze exportieren zu können, weil sie damit gute Erfahrung gemacht haben und es praktisch ist, wenn andere Länder ähnliche Rechtsgrundlagen haben. Gesetz und Auslegung können jedoch stark voneinander abweichen. Südkorea hat deutsche Datenschutzgesetze übernommen. Bis vor zwei Jahren baute die Regierung auf dieser Grundlage ein feinziseliertes Überwachungssystem aus. Die gleichen Gesetze wie in Deutschland – mit einer völlig konträren Auslegung.

          Auf der heute beginnenden re:publica sprechen Sie über Falschinformation und die Zukunft der Algorithmen bei Google. Was ist dort zu tun?

          Wir brauchen mehr Forschung durch externe Parteien. Zurzeit haben wirtschaftliche Akteure die größten Forschungsdatenbanken, und die nutzen sie primär für kommerzielle Zwecke. Es wäre wichtig, Mechanismen zu entwickeln, um diese Daten fair und verantwortungsvoll der Forschung und Wissenschaft zugänglich zu machen. Regulierung kann erst entstehen, wenn die Konflikte und Risiken bekannt sind.

          Das Gespräch führte Elena Witzeck.

          Weitere Themen

          Als The Smiths noch frisch klangen Video-Seite öffnen

          Filmkritik „Bumblebee“ : Als The Smiths noch frisch klangen

          Wer bisher kein Fan von den Transformers-Filmen war, sollte sich „Bumblebee“ auf keinen Fall entgehen lassen: Wie Charlie Watson, gespielt von Heilee Steinfeld, zusammen mit dem gelben Metallkäfer die Filmreihe rettet, erklärt Dietmar Dath.

          Keine Debatte mit Robotern

          Bundestag gegen Bots : Keine Debatte mit Robotern

          Deutschland steht 2019 ein Superwahljahr bevor. Der CDU-Fraktionsvorsitzende Ralph Brinkhaus schlägt Alarm und stellt gesetzliche Regeln gegen „Social Bots“ in Aussicht.

          „Bumblebee“ Video-Seite öffnen

          Trailer : „Bumblebee“

          Am 20. Dezember kommt der Prequel des 2007 Transformers „Bumblebee“ in die deutschen Kinos. Im Mittelpunkt steht der gleichnamige Transformers-Charakter.

          Topmeldungen

          Umweltschutz : EU verbietet Einweg-Plastik

          Riesige Mengen Plastikmüll landen jedes Jahr in den Ozeanen. Nun plant die Europäische Union drastische Gegenmaßnahmen. Etliche Alltagsprodukte sollen verschwinden.
          Altes Eisen: Auf einem Autofriedhof im Ruhrgebiet stapeln sich ausgemusterte Fahrzeuge – kommen bald noch mehr dazu?

          FAZ Plus Artikel: Neue CO2-Grenzwerte : Das Ende des Autos, wie wir es kennen

          Bis zum Jahr 2030 soll der CO2-Ausstoß von Neufahrzeugen um 37,5 Prozent sinken. Die Industrie hält das für „total unrealistisch“ – und warnt vor Arbeitsplatzverlusten im sechsstelligen Bereich.

          Newsletter

          Immer auf dem Laufenden Sie haben Post! Abonnieren Sie unsere FAZ.NET-Newsletter und wir liefern die wichtigsten Nachrichten direkt in Ihre Mailbox. Es ist ein Fehler aufgetreten. Bitte versuchen Sie es erneut.
          Vielen Dank für Ihr Interesse an den F.A.Z.-Newslettern. Sie erhalten in wenigen Minuten eine E-Mail, um Ihre Newsletterbestellung zu bestätigen.