Meta unnecessarily removed two Israeli-Hamas videos, according to oversight board
Die Kommentare, das Ergebnis der ersten „beschleunigten Überprüfung“ des Aufsichtsgremiums, verdeutlichten die intensive Prüfung, der Social-Media-Unternehmen hinsichtlich ihres Umgangs mit konfliktbezogenen Inhalten ausgesetzt sind.
Der Vorstand hob Metas ursprüngliche Entscheidung auf, zwei Inhalte zu entfernen. Als Teil ihrer Entscheidung forderte die Gruppe Meta auf, das Recht der Nutzer auf „freie Meinungsäußerung … und ihre Kommunikationsfähigkeit während dieser Krise“ zu respektieren.
„Der Ausschuss konzentriert sich auf den Schutz des Rechts auf freie Meinungsäußerung von Menschen auf allen Seiten in Bezug auf diese schrecklichen Ereignisse und stellt gleichzeitig sicher, dass jegliche Zeugenaussage nicht zu Gewalt oder Hass aufstachelt“, sagte Michael McConnell, Co-Vorsitzender des Ausschusses, in einer Erklärung. „Diese Zeugnisse sind nicht nur für die Redner wichtig, sondern auch für Nutzer auf der ganzen Welt, die zeitnahe und vielfältige Informationen über bahnbrechende Ereignisse suchen.“
Als Reaktion auf die Entscheidung des Vorstands sagte Meta, dass sie keine weiteren Maßnahmen ergreifen werde, da beide Punkte bereits vor der Entscheidung des Vorstands wieder eingeführt worden seien. „Ausdruck und Sicherheit sind uns und den Menschen, die unsere Dienste nutzen, wichtig“, sagte das Unternehmen in einem Blogbeitrag.
Metas Aufsichtsrat ist eine Einrichtung, die sich aus Experten in Bereichen wie freie Meinungsäußerung und Menschenrechte zusammensetzt. Es wird oft als Metas Oberster Gerichtshof bezeichnet, da es Benutzern ermöglicht, gegen Inhaltsentscheidungen auf der Plattform des Unternehmens Berufung einzulegen. Der Vorstand berät das Unternehmen bei der Handhabung bestimmter Entscheidungen zur Inhaltsmoderation sowie allgemeinerer Richtlinienempfehlungen.
Das Komitee sagte Anfang des Monats, es habe beschlossen, den Fall schneller zu prüfen, da Entscheidungen zu kriegsbezogenen Inhalten „dringende Konsequenzen für die reale Welt“ haben könnten. Die durchschnittliche tägliche Zahl der Nutzerbeschwerden über Inhaltsentscheidungen, die „für die Region Naher Osten und Nordafrika relevant“ seien, habe sich in den Wochen nach Ausbruch des Israel-Hamas-Konflikts fast verdreifacht, sagte das Komitee.
Meta teilte CNN im Oktober mit, dass es „ein spezielles Einsatzzentrum mit Experten, darunter auch solchen, die fließend Hebräisch und Arabisch sprechen, eingerichtet hat, um diese sich schnell entwickelnde Situation genau zu überwachen und darauf zu reagieren“, und dass es sich mit externen Faktenprüfern abstimmt. Bereich.
Das Aufsichtsgremium teilte am Dienstag mit, dass Meta nach Ausbruch des Konflikts vorläufige Schritte unternommen habe, um potenziell gefährliche Inhalte anzugehen, einschließlich der Senkung der Schwelle für die automatische Entfernung von Inhalten, die gegen die Richtlinien zu Hassreden, Gewalt und Aufstachelung sowie zu Mobbing und Belästigung verstoßen könnten.
„Mit anderen Worten, Meta setzt seine automatisierten Tools aggressiver ein, um potenziell gesperrte Inhalte zu entfernen“, sagte der Vorstand und fügte hinzu, dass das Unternehmen diese Schritte unternommen habe, um der Sicherheit Priorität einzuräumen, dass der Schritt aber auch „die Fähigkeit von Meta erhöht habe, fälschlicherweise die Möglichkeit der Löschung nicht gesperrter Inhalte zu erhöhen.“ -Inhalt". Konfliktbedingte Verstöße. „Das Komitee sagte, dass Meta bis zum 11. Dezember die Schwellenwerte für die Inhaltsmoderation seiner automatisierten Systeme nicht auf das normale Niveau zurückgebracht habe.
Die Überprüfung des Ausschusses befasste sich mit zwei Teilen: einem auf Instagram geposteten Video, das die Folgen eines Streiks vor dem Al-Shifa-Krankenhaus in Gaza-Stadt zu zeigen schien, und einem weiteren auf Facebook geposteten Video, das zeigte, wie zwei Geiseln von der Hamas als Geiseln gehalten wurden. Entführung durch Militante.
Das erste Video schien „Menschen, darunter verletzte oder tote Kinder, die auf dem Boden lagen und/oder weinten“ zu zeigen. Das Komitee sagte, Untertitel auf Arabisch und Englisch unter dem Video bezögen sich auf das israelische Militär und sagten, das Krankenhaus sei zu einem „“ geworden. Usurpation Occupys Ziel".
Die automatisierten Systeme von Meta entfernten den Beitrag zunächst, weil er gegen die Regeln für grafische und gewalttätige Inhalte verstieß. Ein Benutzer legte gegen die Entscheidung Berufung ein und forderte die Wiedereinsetzung des Videos. Die Systeme von Meta lehnten den Antrag jedoch automatisch ab, nachdem sie mit „hoher Sicherheit“ festgestellt hatten, dass der Inhalt gegen die Regeln verstieß. Nachdem das Gremium beschlossen hatte, den Fall aufzugreifen, veröffentlichte Meta das Video und gab eine Warnung heraus, dass sein Inhalt beunruhigend sei; die Warnung hinderte auch Minderjährige daran, das Video anzusehen und das Video erwachsenen Nutzern zu empfehlen.
Das Aufsichtsgremium sagte am Dienstag, dass das Video von vornherein nie hätte entfernt werden dürfen und kritisierte Metas Vorstoß, seine Verbreitung einzuschränken, mit der Begründung, es sei „unvereinbar mit der Verantwortung des Unternehmens, die freie Meinungsäußerung zu respektieren“.
Das zweite vom Komitee überprüfte Video zeigte eine Frau und einen Mann auf einem Motorrad, die von Hamas-Kämpfern weggebracht wurden. Der Titel ermutigte die Menschen, sich das Video anzusehen, um „mehr über den Angriff auf Israel am 7. Oktober zu erfahren“.
Meta hat den Beitrag zunächst entfernt, weil er gegen die Richtlinie zu gefährlichen Organisationen und Einzelpersonen verstößt, die das Posten von Bildern von Terroranschlägen gegen offensichtliche Opfer verbietet, selbst wenn sie geteilt werden, um auf solche Angriffe aufmerksam zu machen. (Meta bezeichnet die Hamas im Rahmen ihrer Politik als gefährliche Organisation und bezeichnete den Anschlag vom 7. Oktober als Terroranschlag.) Nachdem das Gremium den Fall aufgegriffen hatte, stellte das Unternehmen das Video mit einem Warnbildschirm wieder ein, als Teil einer größeren Anstrengung, Inhalte zu entfernen, bei denen der Inhalt darauf abzielt, Entführungen zu verurteilen, das Bewusstsein dafür zu schärfen oder sie zu melden. Begrenzte Ausnahmen von der Richtlinie zu gefährlichen Organisationen und Einzelpersonen . oder die Freilassung von Geiseln fordern. Wie bei anderen Videos schränkt der Warnbildschirm die Sichtbarkeit des Videos auf Minderjährige ein und verhindert, dass es anderen Facebook-Nutzern empfohlen wird.
Wie schon beim ersten Video sagte das Gremium, dass der Inhalt nicht entfernt werden dürfe, da die Verweigerung der Empfehlung des Videos eine Verletzung der Menschenrechtsverantwortung von Meta darstellen würde.
Meta sagte am Dienstag, es werde die empfohlenen Grenzwerte für zwei vom Gremium überprüfte Videos nicht ändern, da das Gremium mit den Grenzwerten nicht einverstanden sei, aber keine formellen Empfehlungen dazu abgegeben habe, was mit den Videos geschehen solle.
„Das Komitee ist der Ansicht, dass der Ausschluss von Inhalten, die das Bewusstsein für potenzielle Menschenrechtsverletzungen, Konflikte oder Terrorakte schärfen, aus den Empfehlungen angesichts der großen öffentlichen Besorgnis über solche Inhalte keine notwendige oder angemessene Einschränkung der Meinungsfreiheit darstellt“, sagte er hieß es in der Entscheidung.
Read also:
- Telefónica targets market launch for hologram telephony
- vzbv: Internet companies continue to cheat despite ban
- Telefónica targets market launch for hologram telephony in 2026
- Worldcoin project docks onto Telegram and Reddit
The Oversight Board, Meta's advisory body responsible for upholding free speech and human rights, criticized Meta's decision to remove two controversial videos related to the Israel-Hamas conflict, highlighting the importance of respecting users' right to free expression during crises.
In response to Meta's decision to reinstate the videos, the company emphasized the significance of preserving user expression and security, stating, "Freedom of speech and safety are important to us and the people who use our services."
Source: edition.cnn.com