Ir para o conteúdo

O Conselho de Supervisão da Meta vai pronunciar-se sobre a forma como a empresa lidou com os conteúdos da guerra entre Israel e o Hamas

O Conselho de Supervisão do Meta iniciou na quinta-feira a análise de duas decisões de moderação de conteúdos tomadas pelo gigante das redes sociais relacionadas com conteúdos sobre a guerra entre Israel e o Hamas.

O Conselho de Supervisão do Meta vai analisar o tratamento dado pela empresa a dois conteúdos....aussiedlerbote.de
O Conselho de Supervisão do Meta vai analisar o tratamento dado pela empresa a dois conteúdos relacionados com a guerra entre Israel e o Hamas..aussiedlerbote.de

O Conselho de Supervisão da Meta vai pronunciar-se sobre a forma como a empresa lidou com os conteúdos da guerra entre Israel e o Hamas

A medida marca a primeira vez que o Conselho de Administração conduziu um processo de revisão "acelerado", um aceno para o intenso escrutínio que a Meta, empresa-mãe do Facebook, e outras empresas de redes sociais enfrentaram em relação a conteúdos relacionados com o conflito. O Conselho de Administração decidiu acelerar o processo de análise neste caso porque as decisões sobre conteúdos relacionados com a guerra podem ter "consequências urgentes no mundo real", afirmou num comunicado.

Nas semanas que se seguiram ao ataque do Hamas a Israel, as principais plataformas das redes sociais foram confrontadas com questões sobre se estavam a alojar conteúdos enganosos e odiosos relacionados com o conflito. Os funcionários da União Europeia enviaram avisos ao TikTok, Meta, YouTube e X (antigo Twitter), manifestando a sua preocupação com os conteúdos relacionados com a guerra nas suas plataformas e recordando às empresas de redes sociais que poderiam enfrentar multas de milhares de milhões de dólares se uma investigação posterior determinar que violaram as leis de moderação de conteúdos da UE. Os legisladores dos EUA e do Reino Unido também apelaram às plataformas para que garantissem a aplicação das suas regras contra conteúdos ilegais e de ódio.

A Meta disse à CNN em outubro que tinha criado "um centro de operações especiais com especialistas, incluindo falantes fluentes de hebraico e árabe, para acompanhar de perto e responder a esta situação em rápida evolução" e que estava a coordenar com verificadores de factos terceiros na região.

Nas semanas que se seguiram à eclosão do conflito entre Israel e o Hamas, o Conselho de Supervisão do Meta afirmou que se verificou um aumento de quase três vezes na média diária de apelos dos utilizadores a decisões sobre conteúdos "relacionados com a região do Médio Oriente e do Norte de África".

O Conselho de Supervisão do Meta é uma entidade composta por especialistas em áreas como a liberdade de expressão e os direitos humanos. É frequentemente descrito como uma espécie de Supremo Tribunal para a Meta, uma vez que permite aos utilizadores recorrer de decisões sobre conteúdos nas plataformas da empresa. O conselho faz recomendações à empresa sobre a forma de lidar com determinadas decisões de moderação de conteúdos, bem como sugestões de políticas mais alargadas.

O Conselho de Supervisão planeia rever um vídeo que parece mostrar o rescaldo de um ataque fora do Hospital Al-Shifa na Cidade de Gaza, publicado no Instagram no início de novembro, que "mostra pessoas, incluindo crianças, feridas ou mortas, deitadas no chão e/ou a chorar". A legenda do vídeo, em árabe e inglês, fazia referência ao exército israelita, afirmando que o hospital tinha sido "alvo da 'ocupação usurpadora'".

Inicialmente, o Meta removeu a publicação por violar as suas regras relativas a conteúdos gráficos e violentos. Um utilizador recorreu da decisão, pedindo que o vídeo fosse restaurado. Depois de a direção ter decidido aceitar o caso, o Meta tornou o vídeo visível com um aviso de que o conteúdo é perturbador.

O conselho também vai rever um vídeo que mostra dois reféns a serem raptados por militantes do Hamas - uma mulher numa mota e um homem a ser levado em marcha - em que a legenda insta as pessoas a verem o vídeo para obterem uma "compreensão mais profunda" do ataque de 7 de outubro contra Israel.

Inicialmente, o Meta removeu o post por violar duas políticas: as suas regras contra a violência e o incitamento, que foram temporariamente revistas para incluir conteúdos que identificassem claramente os reféns, e a sua política de organizações e indivíduos perigosos, que proíbe imagens de ataques terroristas contra vítimas visíveis. (A Meta designa o Hamas como uma organização perigosa ao abrigo da sua política e classificou o ataque de 7 de outubro como um ataque terrorista). Mais tarde, a empresa reintegrou o vídeo com um ecrã de aviso "em resposta às tendências na forma como os vídeos de raptos de reféns estavam a ser partilhados e noticiados".

O conselho espera tomar uma decisão sobre os casos nos próximos 30 dias.

Meta disse em um post de blog na quinta-feira que a "orientação do conselho nesses casos, juntamente com o feedback de outros especialistas, nos ajudará a continuar a desenvolver nossas políticas e responder à guerra Israel-Hamas em andamento". Acrescentou que planeia implementar a decisão do conselho em cada caso.

Leia também:

Fonte: edition.cnn.com

Comentários

Mais recente