http://www.faz.net/-gqz-99otf

Was wir von Algorithmen wissen : Der Skandal um Cambridge Analytica ist inszeniert

Durchmisst die Welt der Algorithmen: Lorena Jaume-Palasí. Bild: dts Nachrichtenagentur

Lorena Jaume-Palasí ist Mitgründerin der Initiative „Algorithm Watch“. Sie forscht zum Datenschutz und plädiert für eine Ethik der Digitalisierung. Von zusätzlicher Gesetzgebung hält sie nichts. Ein Interview.

          Wie erklären Sie jemandem, den Sie zum ersten Mal sehen, Ihre Arbeit?

          Elena Witzeck

          Redakteurin im Feuilleton.

          Algorithm Watch erforscht und prüft Automatisierungsprozesse in Bezug auf Gerechtigkeit und Fairness. Viele komplexe Prozesse in der Mitte der Gesellschaft lassen sich heutzutage automatisieren. Dabei können Menschen manipuliert oder diskriminiert werden, weil sie in statistische Schubladen gesteckt werden. Umgekehrt kann Automatisierung aber auch Diskriminierungsmuster erkennen. Wir prüfen beides.

          War das der Anlass dafür, Algorithm Watch zu gründen?

          Wir wissen wenig über die sozialen und ethischen Folgen von Automatisierung. Es gibt kaum Forschung und wenn, ist sie oft auf Sicherheitsrisiken beschränkt und betrachtet keine Diskriminierungs- oder Manipulationsrisiken. Die Debatte, die wir über Automatisierungsprozesse führen, ist von Angst und Ungewissheit bestimmt. Mit der Gründung von Algorithm Watch wollten wir für mehr Sachlichkeit sorgen, Zahlen und Fakten sammeln, daraus Theorien entwickeln und diese in die Debatte einbringen.

          Immer mehr Entscheidungen werden auf Basis von Algorithmen getroffen.

          Algorithmen werden überall und schon seit langem eingesetzt. Wir benutzen Bankautomaten, die Ampelschaltung ist automatisch, und medizinische Geräte geben einen automatischen Befund ab. Die Nutzung von komplexeren Algorithmen, die große Datenmengen brauchen, befindet sich dagegen noch in einem sehr frühen Stadium. Die meisten Unternehmen in Deutschland und der EU haben zu kleine Datenbanken, um diese Verfahren nutzen zu können. Sie fangen aber damit an. Jeder Algorithmus kann Diskriminierung, Manipulation oder einen Mehrwert in sich tragen. Deshalb arbeiten wir an einem Mapping der Automatisierungsverfahren in Deutschland. Zugleich schauen wir uns die Umsetzung in der Praxis an, etwa im Personalmanagement, um Alltagsprobleme zu erforschen und ethische Normen auszuarbeiten.

          Vor zwei Jahren haben Sie Algorithm Watch auf der Konferenz re:publica vorgestellt. Häufig ist die Rede von Filterblasen, die durch Automatisierung entstehen.

          Die Angst vor der Filterblase ist die Angst vor dem, was wir Propaganda nennen. Es gibt reichlich Forschung zu Propaganda, und die Frage, ob die Menschen sich trotz Filterblase informieren können, beantwortet die Studienlage recht deutlich: In Deutschland werden andersartige Meinungen sehr wohl wahrgenommen. Das ist es, was unser Land von China unterscheidet. Deutschland ist in vielen politischen Fragen polarisiert – und beide Pole kennen einander.

          Sie haben nichts gegen Filterblasen?

          Problematisch ist, dass neue Akteure wie die sozialen Medien einen Teil der Öffentlichkeit moderieren. Das war traditionell etwas, was in den Händen des Staates und der Presse lag. Diese neuen Akteure haben aber wirtschaftliche Interessen. Andererseits stellen soziale Medien eine Infrastruktur zur Verfügung, mit der Menschen ihre Grundrechte ausüben können. Wenn wir ihnen dieselben Pflichten wie der Presse oder dem Staat auferlegen, wird das problematisch, denn im Umkehrschluss müsste man ihnen dieselben Privilegien und Rechte verleihen. Die Demokratie würde darunter leiden.

          Algorithmen sind nicht die digitalen Alleskönner, für die sie so oft gehalten werden.

          Algorithmen sind von Menschen gemacht, die Interessen verfolgen. Das hat zuletzt der Facebook-Skandal gezeigt. Was sollten wir aus der Cambridge-Analytica-Affäre lernen?

          Das ist ein Beispiel für die Inszenierung eines Skandals. Cambridge Analytica hat seine algorithmische Methode der „Psychometrics“ nie benutzt. Ob sie funktionieren würde, wissen wir nicht. Die Statistiken zeigen: Die Wähler von Trump waren diejenigen, die Fox News verfolgen und kaum soziale Medien nutzen. Die Brexit-Befürworter waren in den sozialen Medien ebenfalls deutlich unterrepräsentiert. Demgegenüber war die Generation, die sich über Social Media informiert und austauscht, mehrheitlich gegen den Brexit.

          Aber mehr Transparenz würde Plattformen wie Facebook schon guttun.

          Weitere Themen

          Sensationsfund in Ägypten Video-Seite öffnen

          Deutsch-ägyptisches Team : Sensationsfund in Ägypten

          Forscher aus Deutschland und Ägypten haben in der Nähe der Unas-Pyramide bislang unbekannte Grabkammern mit zahlreichen Mumien entdeckt, die 2500 Jahre alt sein sollen. Sie fanden auch kostbare Grabbeigaben, darunter eine gut erhaltene vergoldete Totenmaske aus Silber.

          Wie sich die Qualität verbessern lässt

          Auswahl von Forschern : Wie sich die Qualität verbessern lässt

          Forscher scheuen immer häufiger das Risiko, obwohl sich oft neue Erkenntnisquellen aus Scheitern ergeben. Zehn Prinzipien der Personalauswahl könnten der metrischen Überbewertung bei Bewerbungen entgegenwirken.

          Topmeldungen

          Handelsstreit mit Amerika : Eine neue düstere Wirklichkeit

          Die nächste Eskalationsstufe im Handelsstreit mit Washington scheint auf Messers Schneide zu stehen. Die EU rüstet sich für mögliche Importzölle auf europäische Autos. Aber auch viele Amerikaner sind besorgt.

          Newsletter

          Immer auf dem Laufenden Sie haben Post! Abonnieren Sie unsere FAZ.NET-Newsletter und wir liefern die wichtigsten Nachrichten direkt in Ihre Mailbox. Es ist ein Fehler aufgetreten. Bitte versuchen Sie es erneut.
          Vielen Dank für Ihr Interesse an den F.A.Z.-Newslettern. Sie erhalten in wenigen Minuten eine E-Mail, um Ihre Newsletterbestellung zu bestätigen.