Skip to content

Rights groups accuse Meta of restricting pro-Palestinian speech

Human Rights Watch has accused Meta of continually removing or restricting content that supports Palestine or Palestinian human rights, even if it does not violate the social media giant's rules, the nonprofit said in a report Thursday. The report analyzes the social media giant's handling of...

Dieses Illustrationsfoto, aufgenommen am 6. April 2022 in Krakau, Polen, zeigt Facebook-,....aussiedlerbote.de
Dieses Illustrationsfoto, aufgenommen am 6. April 2022 in Krakau, Polen, zeigt Facebook-, WhatsApp-, Messenger- und Instagram-Symbole auf einem Mobiltelefonbildschirm..aussiedlerbote.de

Rights groups accuse Meta of restricting pro-Palestinian speech

Der Bericht äußerte Bedenken hinsichtlich einiger Beispiele „friedlicher“ pro-palästinensischer Inhalte und sagte, das Unternehmen habe die Inhalte entfernt, obwohl sie keine Richtlinien verletzten. Die Gruppe forderte Meta außerdem dazu auf, eine Reihe von Richtlinien- und Moderationsentscheidungen zu ändern oder mehr Informationen darüber weiterzugeben, einschließlich staatlicher Löschungsanträge und wenn Ausnahmen von der „Nachrichtenwürdigkeit“ gemacht werden, um Inhalte zu bewahren, die gegen ihre Richtlinien verstoßen.

„Meta sollte geschützte Meinungsäußerungen auf seiner Plattform zulassen, einschließlich Äußerungen über Menschenrechtsverletzungen und politische Kampagnen“, sagte Human Rights Watch in dem Bericht und forderte Meta auf, seine Richtlinien für alle Benutzer konsequent durchzusetzen.

Während Human Rights Watch eine ausführliche Beschreibung der entfernten Inhalte lieferte, lieferte die Gruppe nur begrenzte Details zu den Hunderten von Beiträgen, die entfernt oder eingeschränkt wurden, und stellte keine Screenshots zur Verfügung.

Die Organisation gab an, mehr als 1.000 pro-palästinensische Inhalte gefunden zu haben, die ihrer Meinung nach nicht gegen die Regeln von Meta verstießen, aber zwischen Oktober und November 2023 eingeschränkt oder entfernt wurden.

Dazu gehörten Beiträge mit Bildern von verletzten oder toten Körpern in Krankenhäusern im Gazastreifen sowie Kommentare wie „Befreit Palästina“ und „Stoppt den Völkermord“. In einem anderen Beispiel sagte die Gruppe, dass eine Benutzerin, die versuchte, einen Kommentar zu posten, der ausschließlich aus einer Reihe palästinensischer Flaggen-Emojis bestand, von Instagram eine Warnung erhalten habe, dass ihr Kommentar „für andere schädlich sein könnte“.

Die Gruppe behauptete in dem Bericht nicht, dass pro-palästinensische Anhänger einer übermäßigen Strafverfolgung ausgesetzt seien als andere Gruppen.

Mehta sagte in einer Erklärung, dass der Bericht von Human Rights Watch nicht seine Bemühungen zum Schutz von Meinungsäußerungen im Zusammenhang mit dem Israel-Hamas-Konflikt widerspiegele.

„Dieser Bericht ignoriert die Realität der Umsetzung unserer Richtlinien auf der ganzen Welt in einer Zeit rasanter Entwicklung, starker Polarisierung und intensiver Konflikte, was dazu führt, dass die Berichterstattung zugenommen hat.“

„Unsere Richtlinien sind darauf ausgelegt, jedem eine Stimme zu geben und gleichzeitig die Sicherheit unserer Plattform zu gewährleisten“, heißt es in der Erklärung. „Wir erkennen ohne weiteres an, dass die Fehler, die wir machen, für die Menschen frustrierend sein können, implizieren jedoch, dass wir bestimmte Themen absichtlich und systematisch unterdrückt haben. Die Behauptung von The Voice ist falsch.“ . Zu behaupten, dass 1.000 Beispiele – aus der riesigen Menge an Inhalten, die über den Konflikt veröffentlicht wurden – ein Beweis für „systemische Zensur“ seien, mag ein guter Titel sein, aber es mindert nicht die Irreführung der Behauptung.“

Laufende Moderationsüberprüfung rund um den Krieg

Der Bericht vom Donnerstag ist nur die jüngste Prüfung, mit der Meta und andere Social-Media-Unternehmen im Zusammenhang mit ihrem Umgang mit Inhalten im Zusammenhang mit dem Israel-Hamas-Krieg konfrontiert wurden.

Dies folgt einer Entscheidung von Metas eigenem Aufsichtsgremium Anfang dieser Woche, die ursprüngliche Entscheidung des Unternehmens, zwei konfliktbezogene Videos zu entfernen, die seiner Meinung nach wichtige Informationen über menschliches Leid auf beiden Seiten des Problems enthielten, rückgängig zu machen.

Die Kritik, die erfolgt, nachdem Meta und andere Plattformen dafür kritisiert wurden, potenziell schädliche oder irreführende Inhalte nicht zu entfernen, verdeutlicht den Balanceakt, den das Unternehmen vollziehen muss: schnell genug Inhalte entfernen, um potenziellen Schaden zu verhindern, ohne dabei zu übertreiben. In gewisser Weise seine Regeln durchsetzen Das verstößt gegen die freie Meinungsäußerung.

Die Herausforderung wird durch den umstrittenen Charakter des Konflikts verschärft, bei dem sich die Menschen nicht immer darüber einig sind, was Schaden darstellt. Beispielsweise kritisierte der Bericht von Human Rights Watch vom Donnerstag, dass Meta Kommentare und Beiträge mit dem Slogan „Vom Fluss bis zum Meer wird Palästina frei sein“ gelöscht hat – ein Satz, der von einigen als Appell an die Palästinenser in Israel und den palästinensischen Staaten und an das Zusammenleben angesehen wird, aber andere betrachten es als antisemitisch, antiisraelisch und potenziell gewalttätig.

Human Rights Watch stellte auch Metas Einbeziehung der Hamas in ihre Richtlinien zu gefährlichen Organisationen und Einzelpersonen in Frage, da die US-Regierung die Gruppe als Terrororganisation eingestuft und gesagt habe, das Unternehmen solle sich auf „internationale Menschenrechtsorganisationen“ verlassen. Rechtestandards“.

„Die US-Liste umfasst politische Bewegungen mit Streitkräften, wie die Hamas und die Volksfront zur Befreiung Palästinas“, heißt es in dem Bericht und fügt hinzu, dass Meta eine vollständige Liste der Organisationen veröffentlichen sollte, die unter seine Richtlinie zu gefährlichen Organisationen fallen. „Meta setzt diese Politik auf eine Weise durch, die viele Beiträge, die große palästinensische politische Bewegungen unterstützen, effektiv verbietet und Diskussionen über Israel und Palästina zum Schweigen bringt.“

Seit Jahren ist die Hamas für erhebliche blutige Gewalt seitens Israelis und der Gaza-Opposition verantwortlich. Bei dem Anschlag vom 7. Oktober kamen mehr als 1.200 Menschen ums Leben. Die Hamas wird von den Vereinigten Staaten, der Europäischen Union und Israel als Terrororganisation eingestuft.

„Verständlicherweise verbietet die Richtlinie die Aufstachelung zu Gewalt“, heißt es in dem Bericht vom Donnerstag über Metas Richtlinie zu gefährlichen Organisationen und Einzelpersonen. Sie enthält jedoch auch ein generelles Verbot vager Kategorien von Äußerungen wie „Lob“ und „Unterstützung“. „Gefährliche Organisationen“ Diese Aussagen stützen sich bei der Definition stark auf die Liste der ausgewiesenen Terrororganisationen der US-Regierung.

„Meta hat diese Richtlinie in einer Weise umgesetzt, die viele Posts, die große palästinensische politische Bewegungen unterstützen, effektiv verbietet und Diskussionen über Israel und Palästina zum Schweigen bringt“, heißt es in dem Bericht und fügt hinzu, dass Meta die von der Richtlinie erfassten Gruppen und Personen veröffentlichen sollte. Die vollständige Liste.

Meta hat im August seine Richtlinie zu gefährlichen Organisationen und Einzelpersonen aktualisiert, um Verweise auf diese Gruppen und Einzelpersonen im Kontext des sozialen und politischen Diskurses zu ermöglichen.

Das Unternehmen sagte außerdem, dass es plant, in der ersten Hälfte des nächsten Jahres eine überarbeitete Version der Richtlinie einzuführen, nachdem es im September seine Definition des „Lobs“ gefährlicher Gruppen überprüft hatte.

Human Rights Watch führte die Überprüfung durch, indem es E-Mails von Facebook- und Instagram-Nutzern einholte, die Screenshots und andere Beweise dafür enthielten, dass Inhalte entfernt oder eingeschränkt wurden. Die Organisation sagte, dass die Berichte aus mehr als 60 Ländern und in verschiedenen Sprachen, hauptsächlich Englisch, kamen und dass die meisten „verschiedene Botschaften übermittelten, aber einen gemeinsamen Nenner hatten: Unterstützung für Palästina oder palästinensische Friedensbekundungen“. Human Rights Watch sagte, es schließe Fälle aus, in denen der Vorwurf einer ungerechtfertigten Entfernung nicht bewiesen werden könne oder in denen der Inhalt „als Aufstachelung zu Gewalt, Diskriminierung oder Feindseligkeit“ angesehen werden könnte.

Zu den im Bericht geäußerten Bedenken gehört die Kritik, dass Meta bei der Moderation von Inhalten „stark“ auf Automatisierung setzt. Die Organisation gab an, beispielsweise Berichte darüber erhalten zu haben, dass pro-palästinensische Kommentare von Nutzern automatisch gelöscht und als „Spam“ markiert wurden.

Metas Aufsichtsgremium kritisierte diese Woche ebenfalls den Einsatz automatisierter Systeme des Unternehmens zur Moderation von Inhalten – es stellte fest, dass zwei Videos im Zusammenhang mit dem Israel-Hamas-Krieg, die angeblich Aufnahmen menschlichen Leids auf beiden Seiten des Konflikts zeigten, zunächst unnötig waren. Wichtige Informationen wurden entfernt durch automatisierte Tools.

Meta hat die Videos vor der Entscheidung dieser Woche wieder eingestellt, nachdem der Vorstand beschlossen hatte, sie zu überprüfen.

„Ausdruck und Sicherheit sind uns und den Menschen, die unsere Dienste nutzen, wichtig“, sagte das Unternehmen Anfang dieser Woche in einem Blogbeitrag.

Meta teilte CNN im Oktober außerdem mit, dass es „ein spezielles Operationszentrum mit Experten, darunter auch solchen, die fließend Hebräisch und Arabisch sprechen, eingerichtet hat, um diese sich schnell entwickelnde Situation genau zu überwachen und darauf zu reagieren“ und daran arbeite, diesen Bereich mit Fakten Dritter zu koordinieren -Dame.

Am 15. August 2023 erschien auf dem Smartphone-Bildschirm eine mobile Messenger-Anwendung zusammen mit den Anwendungen von Facebook, Instagram, X, WhatsApp, YouTube, TikTok und Threads.

Read also:

Meta should review and potentially adjust its policies to ensure equal treatment of pro-Palestinian speech on its platform, as accused by rights groups.

Despite the high number of reported pro-Palestinian content removals, Meta's use of automation in content moderation might lead to mistaken deletions or labeling as spam.

Source: edition.cnn.com

Comments

Latest

Grave accusations levied against JVA staff members in Bavaria

Grave accusations levied against JVA staff members in Bavaria

Grave accusations levied against JVA staff members in Bavaria The Augsburg District Attorney's Office is currently investigating several staff members of the Augsburg-Gablingen prison (JVA) on allegations of severe prisoner mistreatment. The focus of the investigation is on claims of bodily harm in the workplace. It's

Members Public