http://www.faz.net/-gqz-74afv

Kolumne „Silicon Demokratie“ : Der unfreie Kanal

  • -Aktualisiert am

Algorithmen hören immer mit: Demonstration in Sofia gegen staatliche Überwachung Bild: PETAR PETROV/AP/dapd

Digitale Kommunikation komme ohne Vermittler aus, sagen die Netzapologeten. Doch statt auf Verlage und Buchhandlungen setzen sie auf kommerzielle Plattformen und algorithmische Zensoren.

          “Disintermediation“ wird oft als Wesensmerkmal des digitalen Zeitalters gepriesen. Durch innovative Technologien, so die These, werden Vermittler aller Art überflüssig. Wenn Lektoren, Verlage und Buchhandlungen abgeschafft sind, werden wir endlich befreit sein von ihren Vorurteilen, ihrer Inkompetenz und ihren versteckten Zielen. Um Jeff Bezos von Amazon zu zitieren, den Oberabschaffer, wenn es je einen gegeben hat: „Selbst wohlmeinende Gatekeeper behindern Innovation. Wenn eine Plattform sich selbst organisiert, können noch die absurdesten Ideen ausprobiert werden, weil niemand daherkommt und mit Expertenmiene sagt: ,Das funktioniert nicht.’“ Selbst wenn Bezos recht hat, so übersieht er einen wichtigen Aspekt der Story: Die Digitalisierung unseres Lebens führt zu vielen neuen, meistens unsichtbaren und womöglich fragwürdigen Vermittlern.

          Nehmen wir nur das Bloggen. Als die ersten Blogger in den späten neunziger Jahren anfingen, hatten sie es nur mit ihrem Hostingdienst und dem Internetprovider zu tun. Wer heutzutage bloggen will, wird höchstwahrscheinlich auf einer kommerziellen Plattform wie Tumblr oder Wordpress landen, wobei alle Blogkommentare über ein drittes Unternehmen wie etwa Disqus laufen. Aber es gibt noch weitere Vermittler. Disqus arbeitet mit einer Firma namens Impermium zusammen, die mit Hilfe verschiedener Tools prüft, ob gepostete Kommentare Spams sind. Die wachsende Popularität von Blogs hat nicht zu immer weniger, sondern zu immer mehr Vermittlern geführt. Im Grunde müsste man nicht von „Disintermediation“ sprechen, sondern von „Hyperintermediation“.

          Spambekämpfung als Vorwand

          Impermium gibt auch an, eine Technologie entwickelt zu haben, „die nicht bloß Spams und Malware-Links, sondern alle möglichen unerwünschten Inhalte identifiziert (etwa Gewalt, Rassismus, Gotteslästerung und Volksverhetzung) und es Seitenbetreibern ermöglicht, in Echtzeit zu reagieren, bevor diese Inhalte die Leser erreichen“. Impermium betreut nach eigenen Angaben 300 000 Websites. Ganz recht: Eine einzige Firma in Kalifornien entscheidet für 300 000 Kunden darüber, was Hate Speech und Gotteslästerung ist, ohne dass jemand prüfen kann, ob die von dieser Firma verwendeten Algorithmen vielleicht verzerrt oder extrem konservativ sind.

          Das Modell von Impermium ist interessant, weil der Prozess der Identifizierung von Spam oder Hate Speech mit Big Data unterfüttert wird. Früher war es so, dass jeder Blogeintrag oder Kommentar, in dem das Wort „Viagra“ vorkam, sofort gelöscht wurde; Impermium behauptet, anhand von Nutzerdaten aus dem Netzwerk der 300 000 betreuten Websites Viagra-Witze von Viagra-Werbung unterscheiden zu können.

          Das klingt gut. Eine kontextbasierte Moderation könnte manch legitimen Witz retten. In einem anderen Zusammenhang hat diese Verbindung von Big Data und automatischer Moderation von Inhalten jedoch eine dunkle Seite, vor allem in autoritären Staaten, für die Spambekämpfung - mit Hilfe einheimischer IT-Firmen - nur ein Vorwand ist, um missliebige Meinungen zu unterdrücken. Lösungen, wie Impermium sie praktiziert, erlauben eine raffiniertere Zensur und vermeiden die plumpen Lücken, die das Ergebnis undifferenzierter Systeme sind.

          Moderation nach Standort

          So verwenden chinesische Blogger regelmäßig Euphemismen und Anspielungen, um ihre algorithmischen Zensoren auszutricksen. Ein scheinbar harmloser Begriff wie „Flusskrebs“ steht beispielsweise für „Internetzensur“, „Ferientherapie“ für die Verhaftung von Funktionären. Diese Formulierungen, die die Zensur unterlaufen, weil sie auffällige Begriffe wie „Menschenrechte“ oder „Demokratie“ vermeiden, werden schnell zu Memen, die kritische Diskussionen über die chinesische Politik in Gang setzen.

          Mit Hilfe von Big Data kann Moderationssoftware die relative Häufigkeit bestimmter Ausdrücke auf anderen beliebten Seiten ermitteln und die Kommentatoren genauer überprüfen - etwa: Wer sind ihre Freunde? Bei welchen anderen Postings haben sie einen Kommentar hinterlassen? -, um verdächtige Euphemismen aufzuspüren.

          Auch der Aufenthaltsort der Kommentatoren lässt sich ermitteln. Man stelle sich nur vor, welche neuen Zensurmöglichkeiten sich bieten, wenn Moderationsentscheidungen auch geographische Informationen einbeziehen (Experten sprechen schon von „Spatial Big Data“): Dann könnte man nämlich Kommentare, Videos oder Fotos unterdrücken, die von Nutzern etwa auf dem Tahrir-Platz oder an einem anderen politisch explosiven Ort hochgeladen werden.

          Weitere Themen

          Topmeldungen

          Zweite Chance für die GroKo : Zwischen gestern und morgen

          Diese Woche traf sich der CDU-Bundesvorstand zur Besprechung der Wahlanalysen und zur Klärung der Frage, wie man der SPD begegnen solle. Es wurde deutlich: Für eine große Koalition gibt es noch allerhand Unwägbarkeiten.
          Das amerikanische Verteidigungsministerium Pentagon (Archivaufnahme von 2008)

          Verteidigungsministerium : Das Pentagon forschte jahrelang nach UFOs

          Über Jahre wurden Millionen-Aufwendungen für das „Programm zur Identifizierung von Bedrohungen im Luft-und Weltraum“ im Verteidigungshaushalt versteckt. Doch auch nach Ablauf des Programms verfolgten Mitarbeiter Berichte über UFOs.

          Newsletter

          Immer auf dem Laufenden Sie haben Post! Abonnieren Sie unsere FAZ.NET-Newsletter und wir liefern die wichtigsten Nachrichten direkt in Ihre Mailbox. Es ist ein Fehler aufgetreten. Bitte versuchen Sie es erneut.
          Vielen Dank für Ihr Interesse an den F.A.Z.-Newslettern. Sie erhalten in wenigen Minuten eine E-Mail, um Ihre Newsletterbestellung zu bestätigen.