Facebook: Dokumente über interne "Hassrede"-Debatte geleakt - Zuckerberg will eigenes Schiedsgericht

Facebook: Dokumente über interne "Hassrede"-Debatte geleakt - Zuckerberg will eigenes Schiedsgericht
Protest-Aktion von Chelsea Hornick-Becker (Portal Avaaz.org) in Washington a, 10 April 2018.
Angesichts zunehmender politischer Einflussversuche und Kritik an intransparenten Umgangsformen bei Sanktionen gegen Nutzer will Facebook-CEO Mark Zuckerberg in die Offensive gehen. So soll es bald ein neues Regelwerk und ein geregeltes Verfahren geben.

Spätestens seit dem Brexit und der Wahl Donald Trumps zum US-Präsidenten im Jahr 2016 ist Facebook in den Fokus des Interesses der Politik und zahlreicher gesellschaftlich etablierter Gruppen geraten.

Während die einen das soziale Netzwerk als weitgehend unkontrollierte Plattform zur Anstachelung von Hass oder Verbreitung bewusster Falschnachrichten brandmarken, das einer verschärften Kontrolle durch staatliche Autoritäten bedürfe, gehen andere davon aus, dass bestehende Gesetze völlig ausreichen, um strafbares Verhalten auf Facebook zu ahnden und alle Versuche der Politik, der Plattform strengere Regeln aufzuerlegen, vor allem dazu dienen sollen, die Verbreitung kritischer Meinungen zu unterbinden.

Das umstrittene Netzwerk-Durchsetzungsgesetz (NetzDG) und die Einbindung von Organisationen wie der Amadeu-Antonio-Stiftung, der Kritiker eine politisch einseitige Ausrichtung vorwerfen, in die Durchsetzung der Gemeinschaftsstandards illustrieren auch in Deutschland, wie sensibel die Fragen sind, die das Verhältnis zwischen der Politik und privatwirtschaftlich organisierten sozialen Netzwerken aufwirft.

Facebook-Chef Mark Zuckerberg wich im Europaparlament harten Fragen aus.  Das Format, bei dem in Brüssel erst am Schluss alle Fragen auf einmal beantwortet werden sollten, ermöglichte dem 34-jährigen Tech-Milliardär dieses Vorgehen.

Gewalt in Charlottesville hat zu Überarbeitung von Community-Standards geführt

Nun berichtet das rechtskonservative US-Nachrichtenportal Breitbart News über Leaks, die einen Eindruck davon vermitteln, wie sich auch in den USA selbst, wo die Redefreiheit durch die Verfassung in wesentlich weitgehenderer Form geschützt ist als in den meisten europäischen Staaten, die internen Debatten bei Facebook über den Umgang mit kontroversen Inhalten auf der Plattform verschärfen. Das Newsportal Motherboard sei in den Besitz dieser Dokumente gelangt, heißt es bei Breitbart.  

Mehr erfahren -  "Sollen Pädophile Kinder nach Sex-Fotos fragen dürfen?" - Facebook rudert nach Nutzerumfrage zurück

Insbesondere habe es demzufolge unter dem Eindruck der Krawalle in Charlottesville 2017, als Links- und Rechtsextreme sich untereinander und den Einsatzkräften gewalttätige Ausschreitungen mit drei Toten und Dutzenden Verletzten geliefert hatten, eine umfassende Neudefinition des Begriffs der "Hassrede" gegeben, die in weiterer Folge auch den Moderatoren des Netzwerks nahegebracht worden sei.

Seit November 2017 wurde die Reichweite von Beispielen für "Hassrede" zunächst deutlich erweitert, was vor allem Tiervergleiche bestimmter Bevölkerungsgruppen betraf, aber auch die Bezeichnung sogenannter Transgender-Personen als "Es" anstelle der von diesen gewünschten Artikeln.

Fünf Monate nach den Krawallen fügte Facebook Erklärungen über die Position des Unternehmens zu "weißem Nationalismus", "Suprematismus" oder "Separatismus" hinzu. Demnach erlaube es Facebook nicht, "weißen Suprematismus" als Ideologie anzupreisen, zu unterstützen oder zu repräsentieren - Auffassungen über weißen Nationalismus und Separatismus dürften jedoch unterstützt oder diskutiert werden. Nationalismus als Ideologie werde demnach zwar als "rechtsextrem" eingeordnet, aber gelte nicht ohne Weiteres bereits als spezifisch rassistisch, weil Nationalismus "nicht immer mit Rassismus verbunden zu sein scheint (zumindest nicht explizit)".

Externe Berater und Organisationen definieren "Hassgruppen" mit

Allerdings bezeichneten sich Anhänger eines weißen Suprematismus bisweilen lediglich als Nationalisten, um die negative Konnotation des Begriffes zu umschiffen, was bisweilen zu Unterscheidungsschwierigkeiten führe - auch bezüglich der Selbsteinstufung von Organisationen oder Individuen.

In einem Informationsblatt zu "Herausforderungen" für die Moderatoren wird auf die Frage "Kann man auf Facebook sagen, man sei Rassist?" geantwortet:

Nein, kraft Definition bringt man als Rassist zum Ausdruck, jemanden zumindest auf Grund eines Merkmals zu hassen, das wir schützen.

Bekanntere Nutzer, Einzelakteure oder Organisationen werden als "Hassgruppen" eingeordnet auf der Basis "starker, mittlerer oder leichter Signale", heißt es auf einer anderen Folie. So stelle es ein starkes Signal dar, wenn man selbst eine solche Gruppe gegründet habe, ein mittleres Signal wäre es demgegenüber, ein Logo oder Symbol einer Gruppierung zu nutzen, die verboten sei oder wiederholt dehumanisierende Sprache gegenüber bestimmten Gruppen verwende.

Facebook äußerte sich auf Anfrage von Motherboard dahingehend, dass man evaluiere,

ob eine Einzelperson oder Gruppe als Figur von Hass einzustufen ist, auf der Basis mehrerer unterschiedlicher Signale, etwa ob sie zur Gewalt gegen Menschen aufgerufen haben oder aufrufen auf der Basis von Rasse, Religion oder anderen geschützten Kategorien.

Lesen Sie auch -  Parteilichkeit und Lebensverbundenheit? Facebook reiht Nachrichtenquellen nach "Glaubwürdigkeit"

Dabei sei die Liste der von Facebook als solche eingestuften Hassgruppen nicht identisch mit jener der Anti-Defamation League - und im Größenschluss auch nicht jener des ideologisch deutlich einseitiger positionierten Southern Poverty Law Centers -, aber bezüglich der Weiterentwicklung der Einordnung und Definition der Begriffe arbeite man auch mit externen Stellen zusammen:

Online-Extremismus kann nur durch starke Partnerschaften bekämpft werden und deshalb arbeiten wir weiterhin mit Akademikern und Organisationen, darunter der Anti-Defamation League, zusammen, um diesen Prozess weiterzuentwickeln und zu verbessern.

Neues Regelwerk soll stärker Community-orientiert sein

Das Ziel für Facebook sei eindeutig:

Unsere Politik gegen organisierte Hassgruppen und dazugehörige Individuen ist langfristig und explizit: Wir erlauben diesen Gruppen nicht, eine Präsenz auf Facebook zu unterhalten, weil wir keine Plattform für Hass sein wollen. Mithilfe einer kombinierten Nutzung von Technologie und Menschen arbeiten wir offensiv daran, extremistische Inhalte und Hassorganisationen von unserer Plattform zu entfernen.

Wie die Plattform PJ Mediamitteilt, soll Facebook-CEO Mark Zuckerberg während der Viva-Technologiekonferenz in Paris am Donnerstag zudem angekündigt haben, eine Rechtsmittelinstanz innerhalb seines sozialen Mediums schaffen zu wollen für Nutzer, die sich gegen eine Löschung ihrer Beiträge wehren wollen. Vor dem Hintergrund einer zwei Milliarden Nutzer zählenden weltweiten Community sei es wichtig, einen Katalog an inhaltlichen Prinzipien zu erarbeiten, der den unterschiedlichen Auffassungen dahingehend Rechnung tragen soll, was in verschiedenen Ländern in aller Welt als angemessen gilt.

Dazu wolle er nach Gesprächen mit Akademikern und Regierungsvertretern im Laufe der nächsten sechs bis zwölf Monate "ein Modell für stärker Community-orientierte Regeln vorlegen können", das auch ein Beschwerdeverfahren umfassen soll.

Die Personen, die dann darüber befinden sollen, ob beispielsweise ein Inhalt zurecht wegen "Hassrede" gelöscht wurde, sollen dann nicht bei Facebook selbst beschäftigt sein, sondern ein unabhängiger Spruchkörper aus Leuten, die "über Kompetenz darüber verfügen, was die Regeln sind und die Prinzipien, die wir innerhalb der Community haben wollen." Dafür gehöre aber innerhalb einer so großen Gemeinschaft auch ein geregeltes Verfahren.

Auch interessant -  Facebook führt Widerspruchsrecht bei gelöschten Beiträgen ein

Das bisherige System der Überwachung der Gemeinschaftsregeln ist vielfach als willkürlich, intransparent und voreingenommen kritisiert worden. Gegen Disziplinierungsmaßnahmen wie temporäre Sperren oder gar die Löschung von Accounts hatten betroffene Nutzer faktisch keine Handhabe. Auch die Einführung sogenannter Fact-Checker, die vermeintliche oder tatsächliche Falschnachrichten kennzeichnen sollen, hatte vielerorts Missfallen erregt, weil diese zwar formal unabhängig, aber weltanschaulich überwiegend sehr eindeutig positioniert seien und dementsprechend einseitig agierten.

Wie ausgewogen wird dieses Schiedsgericht zusammengesetzt sein?

Paula Bolyard schreibt auf PJ Media von einem Schritt in die Richtung, allerdings sei weiterhin Vorsicht geboten:

Die Frage, die bleibt – und die Zuckerberg bewusst anzusprechen verabsäumt – ist, wie Facebook einstufen will, was Hasrede, Mobbing oder unangemessene Inhalte sind. Diesbezüglich ist es recht leicht, Terrorismus, Drohungen oder Verbrechen unter dem Dach der Hassrede einzuordnen, aber die Angelegenheit wird heikel - und vor allem umstritten -, wenn es um Themen wie Abtreibung, Homosexualität, Waffenrechte oder Religion geht.

Hier, so Bolyard, gäbe es eine kleine, aber laute Minderheit, die meine, jede Kritik an progressiven Positionen in diesen Bereichen sollte per se in die Kategorie der Hassrede fallen, selbst wenn sie auf tief empfundenen religiösen Überzeugungen beruhe. Ganz zu schweigen von Vorbehalten gegen auf Identitätspolitik fußende Opferdiskurse, die entsprechend bereits ohne jede weitere inhaltliche Analyse als "rassistisch" gelten würden.

Diese Webseite verwendet Cookies. Klicken Sie hier, um mehr zu erfahren

Cookies zulassen