https://www.faz.net/-gqz-99otf

Was wir von Algorithmen wissen : Der Skandal um Cambridge Analytica ist inszeniert

Algorithm Watch beteiligt sich an einer internationalen Expertengruppe, die einen Ethik-Katalog für Facebook ausarbeitet. Speziell Transparenz ist kein Wert an sich, sondern nur ein Mittel. Saudi-Arabien benutzt Transparenz als Mittel der Zensur und hat eine Online-Plattform errichtet, auf der Menschen vorschlagen können, was als Nächstes zensiert werden soll. Algorithm Watch denkt an Ziele: Automatisierung per se ist nicht schädlich, muss aber ständig auf Schäden überprüft werden. Manchmal ist Transparenz dafür ein Mittel, je nach Kontext können aber andere Mittel geeigneter sein. Das Feststellen von Schäden ist aber nur die erste Stufe. Wir setzen uns für eine demokratische Kontrolle von Automatisierungsverfahren ein.

Gesetzliche Regulierungen sind immer einen Schritt hinterher. Wie lässt sich damit umgehen?

Indem man nicht die Technik reguliert, sondern die menschlichen Konflikte und Risiken, die sich aus dem Umgang mit Technologie ergeben. Nehmen wir das Auto: Gesetze begrenzen nicht die Anzahl der PS, sondern die Geschwindigkeit auf der Straße. Nicht die Technik wird reguliert, sondern der menschliche Einsatz.

Einen „Algorithmus-TÜV“ halten Sie für unrealistisch, weil sich Algorithmen in verschiedenen Einsatzgebieten nicht von einer Institution überprüfen ließen. Gesetzliche Bevormundung lehnen Sie ab, Unternehmen halten Sie bei der Kontrolle für nicht verlässlich. Bleibt die Verantwortung am Nutzer hängen?

Ich habe nichts gegen Gesetze. Wir haben gute und lang tradierte Gesetze, die individualrechtliche Schäden längst regulieren. Die Frage ist: Brauchen wir neue, speziellere? Automatisierung verändert die Gesellschaft und unser Verantwortungssystem nicht grundsätzlich. Auch die gesellschaftlichen Folgen der Regulierung ließen sich schwer abschätzen. Algorithmen sind nur ein Skelett und abhängig vom Kontext. Ein Algorithmus für Filmkuratierung kann auch in der Krebsforschung verwendet werden. Die Daten, die Auswertungsmethoden, die Prozessarchitektur machen den Unterschied. Ein Sozialwissenschaftler kann die Statistik eines Kardiologen nicht interpretieren. Ein Richter hingegen muss den gesamten Kontext betrachten, bevor er urteilen kann. Dasselbe gilt hier. Bei der Regulierung sollte nicht Technologie im Mittelpunkt stehen, sondern den Mensch und das Gesellschaftliche.

Gibt es Ihrer Meinung nach dennoch gesetzliche Möglichkeiten?

Wir fordern technikneutrale Regulierungen und Anpassungen. Individualrechtlich haben wir eine gute gesetzliche Grundlage. Es gibt bereits Behörden, die Kontexte prüfen, wie etwa die Bundesanstalt für Finanzdienstleistungsaufsicht beim Hochfrequenzhandel oder das Bundesinstitut für Arzneimittel und Medizinprodukte. In solchen Behörden könnte eine sinnvolle Überprüfung vorgenommen werden. Hat etwa das Institut für Arzneimittel beim Thema personalisierte Medikamente die nötigen Rechtsgrundlagen und Wissenskompetenzen, um nicht nur die Chemie, sondern auch die algorithmische Methodik zu prüfen?

Was halten Sie vom gerade wiederbelebten Projekt einer digitalen Charta?

Wir sehen keinen Bedarf für eine digitale Grundrechtecharta.

Sie begleiten auch Projekte zur Internet Governance in Asien und Afrika. Was könnten wir von dort lernen?

Diese Länder haben ganz andere Probleme und Wahrnehmungen. Die westlichen Länder meinen, ihre Gesetze exportieren zu können, weil sie damit gute Erfahrung gemacht haben und es praktisch ist, wenn andere Länder ähnliche Rechtsgrundlagen haben. Gesetz und Auslegung können jedoch stark voneinander abweichen. Südkorea hat deutsche Datenschutzgesetze übernommen. Bis vor zwei Jahren baute die Regierung auf dieser Grundlage ein feinziseliertes Überwachungssystem aus. Die gleichen Gesetze wie in Deutschland – mit einer völlig konträren Auslegung.

Auf der heute beginnenden re:publica sprechen Sie über Falschinformation und die Zukunft der Algorithmen bei Google. Was ist dort zu tun?

Wir brauchen mehr Forschung durch externe Parteien. Zurzeit haben wirtschaftliche Akteure die größten Forschungsdatenbanken, und die nutzen sie primär für kommerzielle Zwecke. Es wäre wichtig, Mechanismen zu entwickeln, um diese Daten fair und verantwortungsvoll der Forschung und Wissenschaft zugänglich zu machen. Regulierung kann erst entstehen, wenn die Konflikte und Risiken bekannt sind.

Das Gespräch führte Elena Witzeck.

Weitere Themen

Skulpturen auf Bleistiftspitzen Video-Seite öffnen

Kunstwerke in XXS : Skulpturen auf Bleistiftspitzen

Der bosnische Künstler und Bildhauer Jasenko Đorđević schafft es, unglaublich winzige und dennoch detailreiche Skulpturen aus Bleistiftminen zu erschaffen. Seine Miniaturkunst zeigt er in Ausstellungen in ganz Europa.

Topmeldungen

Sinnbild für einen narzisstischen Chef: Michael Douglas als Gordon Gekkoim Film „Wall Street“

Narzissmus im Job : Wenn der Chef nur sich selbst liebt

Der Vorgesetzte ist dominant, leicht kränkbar oder cholerisch? Schnell liegt der Verdacht einer Persönlichkeitsstörung in der Luft. Doch schwierige Chefs sind nicht immer gleich Narzissten.
Christine Lagarde, Präsidentin der Europäischen Zentralbank (EZB)

Anleihekäufe : Die EZB bleibt im Krisenmodus

Die jüngsten Beschlüsse zu den Anleihekäufen der Europäischen Zentralbank sind rechtlich bedenklich und strategisch äußerst ungeschickt, schreiben die Gastautoren Laus Adam und Hans Peter Grüner.
Im Parlamentarischen Rat vor Gründung der Bundesrepublik Deutschland war die Zentrumspartei 1948 noch vertreten.

Comeback nach 64 Jahren : Die Zentrumspartei ist wieder da

Ein früherer AfD-Abgeordneter beschert der Partei nach 64 Jahren die Rückkehr in den Bundestag. Die älteste deutsche Partei war das politische Sprachrohr der Katholiken im Kaiserreich und in der Weimarer Republik. Wofür steht sie heute?