Организация Human Rights Watch обвинила компанию Meta в неоднократном удалении или ограничении контента, поддерживающего Палестину или права палестинцев, даже если он не нарушал правил социальной сети, сообщила некоммерческая организация в четверг в рамках отчета, в котором анализируется работа социальной сети с контентом, связанным с войной между Израилем и Хамасом.

Значки Facebook, WhatsApp, Messenger и Instagram на экране телефона - на этой иллюстрации, сделанной в Кракове, Польша, 6 апреля 2022 года.:Значки Facebook, WhatsApp, Messenger и Instagram на экране телефона - на этой иллюстрации, сделанной в Кракове, Польша, 6 апреля 2022 года.

Правозащитная группа обвиняет Мета в ограничении высказываний в защиту Палестины

В отчете выражается обеспокоенность по поводу примеров «мирного» пропалестинского контента, который, по мнению компании, был удален, хотя он не нарушал никаких правил. Группа также призывает Meta изменить или предоставить больше информации о некоторых политиках и решениях по модерации, в том числе о правительственных запросах на удаление контента и о том, когда компания делает исключения по принципу «актуальности», чтобы оставить контент, нарушающий ее политику.

«Мета должна разрешить защищенное выражение мнений, в том числе о нарушениях прав человека и политических движениях, на своих платформах», – говорится в отчете Human Rights Watch, и она призывает Мета последовательно обеспечивать соблюдение своих политик для всех пользователей.

В то время как Human Rights Watch дала общую характеристику удаленного контента, группа предоставила ограниченное количество конкретных сведений о сотнях сообщений, которые, по ее словам, были удалены или ограничены, и не предоставила скриншотов.

Группа заявила, что выявила более 1000 единиц пропалестинского контента, который, по ее утверждению, не нарушал правил Meta, но был ограничен или удален в октябре и ноябре 2023 года.

Среди них были посты с изображениями раненых или мертвых тел в больницах Газы и комментарии «Освободите Палестину» и «Остановите геноцид». В другом случае, по словам группы, пользовательница попыталась опубликовать комментарий, состоящий не более чем из серии эмодзи с палестинским флагом, и получила предупреждение от Instagram, что ее комментарий «может ранить других».

Группа не утверждает в отчете, что сторонники Палестины сталкиваются с чрезмерным усилением правопорядка чаще, чем другие группы.

В заявлении Meta говорится, что отчет Human Rights Watch не отражает ее усилий по защите высказываний, связанных с конфликтом между Израилем и Хамасом.

«Этот отчет игнорирует реалии обеспечения соблюдения нашей политики в глобальном масштабе во время быстро развивающегося, крайне поляризованного и интенсивного конфликта, что привело к увеличению количества контента, о котором нам сообщают», – говорится в заявлении Meta, предоставленном пресс-секретарем Беном Уолтерсом.

«Наша политика направлена на то, чтобы дать каждому право голоса и в то же время обеспечить безопасность наших платформ», – говорится в заявлении. Мы с готовностью признаем, что допускаем ошибки, которые могут расстраивать людей, но утверждение о том, что мы намеренно и систематически подавляем те или иные голоса, является ложным». Утверждение о том, что 1000 примеров – из огромного количества контента, размещенного о конфликте, – являются доказательством «системной цензуры», может быть хорошим заголовком, но это не делает утверждение менее вводящим в заблуждение».

Постоянная проверка модерации вокруг войны

Отчет, опубликованный в четверг, стал последним случаем, когда Meta и другие компании, работающие в социальных сетях, столкнулись с проблемой модерации контента, связанного с войной между Израилем и Хамасом.

Это произошло после того, как ранее на этой неделе собственный совет по надзору Meta принял решение отменить первоначальное решение компании об удалении двух видеороликов, связанных с конфликтом, которые, по мнению совета, содержали важную информацию о страданиях людей по обе стороны конфликта.

Эти критические замечания прозвучали после того, как ранее в ходе конфликта Meta и другие платформы подверглись критике за неспособность удалить потенциально вредный или вводящий в заблуждение контент, что свидетельствует о балансе, который должна соблюдать компания: Быстро удалять достаточно контента, чтобы предотвратить потенциальный вред, и при этом не переусердствовать с соблюдением правил, ущемляя свободу слова.

Дополнительную сложность представляет спорный характер конфликта, в котором не всегда есть согласие по поводу того, что считать вредом. Например, в опубликованном в четверг докладе Human Rights Watch критикуется удаление Meta некоторых комментариев и постов с лозунгом «От реки до моря Палестина будет свободной» – фраза, которую одни рассматривают как призыв к созданию палестинского государства и сосуществованию израильтян и палестинцев, а другие – как антисемитскую, антиизраильскую и потенциально насильственную.

Human Rights Watch также выразила несогласие с тем, что Meta включила ХАМАС в свой список опасных организаций и лиц на основании того, что правительство США признало эту группировку террористической организацией, заявив, что вместо этого компания должна опираться на «международные стандарты в области прав человека».

«В список США включены политические движения, имеющие вооруженные крылья, такие как ХАМАС и Народный фронт освобождения Палестины», – говорится в отчете, и добавляется, что Meta должна опубликовать полный список организаций, на которые распространяется ее политика в отношении опасных организаций. «Способы, с помощью которых Meta проводит эту политику, фактически запрещают многие посты, поддерживающие основные палестинские политические движения, и подавляют дискуссии вокруг Израиля и Палестины».

На протяжении многих лет ХАМАС несет ответственность за значительное и кровавое насилие против израильтян и противников в Газе. Его атака 7 октября унесла жизни более 1200 человек. Соединенные Штаты, Европейский союз и Израиль относят ХАМАС к террористическим организациям.

В докладе, опубликованном в четверг, говорится о политике Мета в отношении опасных организаций и лиц: «Понятно, что эта политика запрещает подстрекательство к насилию. Однако она также содержит широкие запреты на расплывчатые категории высказываний, такие как «восхваление» и «поддержка» «опасных организаций», для определения которых она в значительной степени опирается на списки террористических организаций, составленные правительством США».

«Способы, которыми Meta применяет эту политику, фактически запрещают многие посты, поддерживающие основные палестинские политические движения, и подавляют дискуссию вокруг Израиля и Палестины», – говорится в отчете, добавляя, что Meta должна опубликовать полный список групп и людей, на которых распространяется эта политика.

В августе Meta обновила политику «Опасные организации и лица», чтобы разрешить ссылки на эти группы и людей в контексте социальных и политических дискуссий.

Компания заявила, что также планирует выпустить пересмотренную версию политики в первой половине следующего года, после того как пересмотрит свое определение «восхваления» опасных организаций, о чем она сообщила в сентябре.

Human Rights Watch провела свой обзор, запросив у пользователей Facebook и Instagram электронные письма со скриншотами и другими доказательствами того, что их контент был удален или ограничен.

Сообщения поступили из более чем 60 стран на нескольких языках, в основном английском, и большинство из них «содержали разнообразные сообщения, но при этом имели одну общую характеристику: мирное выражение поддержки Палестины или палестинцев», – говорится в сообщении группы. Human Rights Watch заявила, что исключила случаи, когда не смогла обосновать утверждения о необоснованном удалении или когда содержание могло быть «расценено как подстрекательство к насилию, дискриминации или враждебности».

Среди проблем, затронутых в отчете, – критика «сильной зависимости» Meta от автоматизации модерации контента. Группа заявила, что получила сообщения, например, о том, что комментарии пользователей в поддержку Палестины удаляются автоматически и помечаются как «спам».

Совет по надзору Meta на этой неделе также обратил внимание на использование компанией автоматизированных систем для модерации контента – он обнаружил, что два видео, связанных с войной между Израилем и Хамасом, которые, по его словам, содержали важную информацию о страданиях людей по обе стороны конфликта, были первоначально необоснованно удалены автоматизированными инструментами.

Meta восстановила видео после того, как совет решил пересмотреть их, до решения, принятого на этой неделе.

«Для нас и людей, пользующихся нашими услугами, важны как самовыражение, так и безопасность», – заявила компания в своем блоге в начале этой недели.

В октябре Meta также сообщила CNN, что создала «центр специальных операций, укомплектованный экспертами, в том числе свободно владеющими ивритом и арабским языком, для тщательного мониторинга и реагирования на эту быстро развивающуюся ситуацию», и что она координирует свои действия с третьими сторонами, проверяющими факты в регионе.

Мобильное приложение Messenger на экране смартфона рядом с приложениями Facebook, Instagram, X, WhatsApp, YouTube, TikTok, Threads, 15 августа 2023 года.

Читайте также:

Источник: edition.cnn.com

Подпишитесь на наш Telegram
Получайте по 1 сообщению с главными новостями за день
Заглавное фото: aussiedlerbote.de
Источник: cnn

Читайте также:

Обсуждение

Подписаться
Уведомить о
guest
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии