Google kämpft gegen radikale Inhalte auf YouTube und zensiert ohne Anleitung

Google kämpft gegen radikale Inhalte auf YouTube und zensiert ohne Anleitung
Ein Mann schreibt auf einem Computer, auf dessen Bildschirm die Flagge des Islamischen Staates zu sehen ist, Zenica, Bosnien-Herzegowina, 6. Februar 2016.
Am Sonntag gab Google bekannt, dass es neue Maßnahmen in die Wege leiten will, um extremen Inhalten auf YouTube entgegenzuwirken. Es geht um Videos, die extreme religiöse oder politische Inhalte haben.

Kent Walker, General Counsel von Google, beschreibt in einem Google-Blog die vier Schritte, mit denen die Firma dem Online-Terror begegnen will:

  1. Neue Technologien sollen Google beim Aufspüren potenziell gefährdender Videos helfen: "Während in der Welt der Nachrichten das Video eines Attentats hilfreich sein kann, kann es in einem anderen Kontext der Terrorverherrlichung dienen." 
  2. Mehr Experten sollen eingestellt werden. Hier räumt Google ein, dass die Maschinen nicht bei Nuancen zwischen "gewaltverherrlichender Propaganda" und "religiösen oder nachrichtenbasierenden Reden" unterscheiden können. 50 weitere Experten sollen in den 63 Organisationen eingestellt werden, die schon Teil des Programms sind. Die Zusammenarbeit mit Anti-Terror-Organisationen soll helfen, Inhalte ausfindig zu machen, die zur Radikalisierung und Rekrutierung von Extremisten genutzt werden.
  3. Aber auch Videos, die laut Google "nicht ganz gegen die Regeln verstoßen", die Firma aber für "gefährlich" einstuft, werden mit einer Warnung versehen, nicht monetär beworben, können nicht mit Kommentaren versehen oder durch Nutzer befürwortet werden.
  4. Als letzter Schritt soll die "Redirect Methode" helfen, Sympathisanten und potenzielle Rekruten des "Islamischen Staates" umzulenken und deren Aufmerksamkeit auf Anti-Terror-Videos zu lenken. 

Mehr lesen: Mit Künstlicher Intelligenz in den Krieg: Pentagon und Silicon Valley greifen nach den Algorithmen

In Deutschland, Frankreich und Großbritannien, wo Zivilisten Opfer von Anschlägen geworden sind, haben die Regierungen Druck auf Facebook und andere soziale Medien ausgeübt, um mehr gegen Hass und radikale Inhalte zu unternehmen. Auch Facebook ist bemüht, durch künstliche Intelligenz radikale Inhalte von seinen Seiten zu löschen.

Brüsseler Journalisten befürchten Zensur im EU-Parlament (Symbolbild)

Facebook versucht Bilder und Videos schon beim Hochladen zu stoppen, wenn sie radikale Inhalte haben und gegen die Regularien der Plattform verstoßen. Eine spezielle Software soll terroristische Inhalte erkennen. Bisher muss sich Facebook auf die Aktionen der Nutzer berufen, um Inhalte aufzuspüren.

In der vergangenen Woche veröffentlichte Facebook eine Reihe von Fragen, die die Nutzer beantworten sollen, um zu entscheiden, was in den sozialen Netzwerken erlaubt sein soll und was nicht:

  1. Wie sollten Plattformen Terroristen davon abhalten, ihre Propaganda online zu verbreiten?
  2. Was sollte mit einer Online-Identität nach dem Tode einer Person geschehen?
  3. Wie agressiv sollten soziale Medienfirmen kontroverse Einträge und Bilder überwachen und löschen? Wer entscheidet, was kontrovers ist, besonders in einer globalen Gemeinschaft mit zahlreichen kulturellen Normen?
  4. Wer definiert was Falschnachrichten sind? Und was ist eine kontroverse politische Rede?
  5. Sind die sozialen Medien gut für die Demokratie?
  6. Wie kann man Daten so nutzen, dass sie allen dienen, ohne das Vertrauen der Menschen zu unterbinden?
  7. Wie sollten junge Internetnutzer von neuen Wegen unterrichtet werden, um sich in einer sicheren Umgebung auszudrücken?

Auch bei Facebook soll eine größere Mitarbeiterzahl gepaart mit neuester Technologie helfen. Die sozialen Medien müssen die richtige Balance zwischen Zensur und Kontrolle finden. Auch das neue Tool der Live-Übertragungen bei Facebook und YouTube oder der reinen Live-Streaming-Plattform Periscope bringen, neben den neuen Geschäftsfeldern, Gefahren mit sich.

Dies zeigten öffentlich gewordene Fälle, in denen Morde und Vergewaltigungen live miterlebbar waren. Bevor die Plattformen aufmerksam wurden, hatten sich die Videos schon im Netz verbreitet und wurden in verschiedenen Sprachen untertitelt.