https://www.faz.net/-gqz-99otf

Was wir von Algorithmen wissen : Der Skandal um Cambridge Analytica ist inszeniert

Algorithm Watch beteiligt sich an einer internationalen Expertengruppe, die einen Ethik-Katalog für Facebook ausarbeitet. Speziell Transparenz ist kein Wert an sich, sondern nur ein Mittel. Saudi-Arabien benutzt Transparenz als Mittel der Zensur und hat eine Online-Plattform errichtet, auf der Menschen vorschlagen können, was als Nächstes zensiert werden soll. Algorithm Watch denkt an Ziele: Automatisierung per se ist nicht schädlich, muss aber ständig auf Schäden überprüft werden. Manchmal ist Transparenz dafür ein Mittel, je nach Kontext können aber andere Mittel geeigneter sein. Das Feststellen von Schäden ist aber nur die erste Stufe. Wir setzen uns für eine demokratische Kontrolle von Automatisierungsverfahren ein.

Gesetzliche Regulierungen sind immer einen Schritt hinterher. Wie lässt sich damit umgehen?

Indem man nicht die Technik reguliert, sondern die menschlichen Konflikte und Risiken, die sich aus dem Umgang mit Technologie ergeben. Nehmen wir das Auto: Gesetze begrenzen nicht die Anzahl der PS, sondern die Geschwindigkeit auf der Straße. Nicht die Technik wird reguliert, sondern der menschliche Einsatz.

Einen „Algorithmus-TÜV“ halten Sie für unrealistisch, weil sich Algorithmen in verschiedenen Einsatzgebieten nicht von einer Institution überprüfen ließen. Gesetzliche Bevormundung lehnen Sie ab, Unternehmen halten Sie bei der Kontrolle für nicht verlässlich. Bleibt die Verantwortung am Nutzer hängen?

Ich habe nichts gegen Gesetze. Wir haben gute und lang tradierte Gesetze, die individualrechtliche Schäden längst regulieren. Die Frage ist: Brauchen wir neue, speziellere? Automatisierung verändert die Gesellschaft und unser Verantwortungssystem nicht grundsätzlich. Auch die gesellschaftlichen Folgen der Regulierung ließen sich schwer abschätzen. Algorithmen sind nur ein Skelett und abhängig vom Kontext. Ein Algorithmus für Filmkuratierung kann auch in der Krebsforschung verwendet werden. Die Daten, die Auswertungsmethoden, die Prozessarchitektur machen den Unterschied. Ein Sozialwissenschaftler kann die Statistik eines Kardiologen nicht interpretieren. Ein Richter hingegen muss den gesamten Kontext betrachten, bevor er urteilen kann. Dasselbe gilt hier. Bei der Regulierung sollte nicht Technologie im Mittelpunkt stehen, sondern den Mensch und das Gesellschaftliche.

Gibt es Ihrer Meinung nach dennoch gesetzliche Möglichkeiten?

Wir fordern technikneutrale Regulierungen und Anpassungen. Individualrechtlich haben wir eine gute gesetzliche Grundlage. Es gibt bereits Behörden, die Kontexte prüfen, wie etwa die Bundesanstalt für Finanzdienstleistungsaufsicht beim Hochfrequenzhandel oder das Bundesinstitut für Arzneimittel und Medizinprodukte. In solchen Behörden könnte eine sinnvolle Überprüfung vorgenommen werden. Hat etwa das Institut für Arzneimittel beim Thema personalisierte Medikamente die nötigen Rechtsgrundlagen und Wissenskompetenzen, um nicht nur die Chemie, sondern auch die algorithmische Methodik zu prüfen?

Was halten Sie vom gerade wiederbelebten Projekt einer digitalen Charta?

Wir sehen keinen Bedarf für eine digitale Grundrechtecharta.

Sie begleiten auch Projekte zur Internet Governance in Asien und Afrika. Was könnten wir von dort lernen?

Diese Länder haben ganz andere Probleme und Wahrnehmungen. Die westlichen Länder meinen, ihre Gesetze exportieren zu können, weil sie damit gute Erfahrung gemacht haben und es praktisch ist, wenn andere Länder ähnliche Rechtsgrundlagen haben. Gesetz und Auslegung können jedoch stark voneinander abweichen. Südkorea hat deutsche Datenschutzgesetze übernommen. Bis vor zwei Jahren baute die Regierung auf dieser Grundlage ein feinziseliertes Überwachungssystem aus. Die gleichen Gesetze wie in Deutschland – mit einer völlig konträren Auslegung.

Auf der heute beginnenden re:publica sprechen Sie über Falschinformation und die Zukunft der Algorithmen bei Google. Was ist dort zu tun?

Wir brauchen mehr Forschung durch externe Parteien. Zurzeit haben wirtschaftliche Akteure die größten Forschungsdatenbanken, und die nutzen sie primär für kommerzielle Zwecke. Es wäre wichtig, Mechanismen zu entwickeln, um diese Daten fair und verantwortungsvoll der Forschung und Wissenschaft zugänglich zu machen. Regulierung kann erst entstehen, wenn die Konflikte und Risiken bekannt sind.

Das Gespräch führte Elena Witzeck.

Weitere Themen

Schwarze Titelseiten in Australien Video-Seite öffnen

Ruf nach Pressefreiheit : Schwarze Titelseiten in Australien

Einige der großen Tageszeitungen in Australien erschienen am Montag mit geschwärzten Titelseiten. Damit wollten die Blätter nach eigenen Angaben auf die australische Gesetzgebung aufmerksam machen. Diese erschwere Journalisten die Arbeit, biete keinen ausreichenden Schutz der Pressefreiheit und lasse etwa die Durchsuchung von Redaktionsräumen zu.

Topmeldungen

737-Max-Flugzeuge von Boeing stehen auf einem Gelände des Unternehmens in Seattle.

Krise um 737 Max : Immer mehr schlechte Nachrichten für Boeing

Es steht nicht gut, um den Flugzeugbauer Boeing: Der politische Druck rund um die Ermittlungen zu den beiden Abstürzen der 737-Max-Maschinen wird immer größer – und nun verliert das Unternehmen auch an der Börse immer mehr an Wert.

Newsletter

Immer auf dem Laufenden Sie haben Post! Abonnieren Sie unsere FAZ.NET-Newsletter und wir liefern die wichtigsten Nachrichten direkt in Ihre Mailbox. Es ist ein Fehler aufgetreten. Bitte versuchen Sie es erneut.
Vielen Dank für Ihr Interesse an den F.A.Z.-Newslettern. Sie erhalten in wenigen Minuten eine E-Mail, um Ihre Newsletterbestellung zu bestätigen.