Giovedì l'Oversight Board di Meta ha avviato la revisione di due decisioni di moderazione dei contenuti prese dal gigante dei social media in relazione ai contenuti della guerra tra Israele e Hamas. - L'Oversight Board di Meta si esprimerà sulla gestione dei contenuti della guerra tra Israele e Hamas da parte dell'azienda
La mossa segna la prima volta che la commissione ha condotto un processo di revisione "accelerato", un cenno all'intenso scrutinio che Meta, genitore di Facebook, e altre società di social media hanno affrontato per i contenuti relativi al conflitto. Il consiglio ha deciso di adottare una revisione più rapida in questo caso perché le decisioni sui contenuti relativi alla guerra potrebbero avere "conseguenze urgenti nel mondo reale", ha dichiarato in un comunicato.
Nelle settimane successive all'attacco di Hamas a Israele, le principali piattaforme di social media si sono trovate ad affrontare questioni relative al fatto che ospitassero contenuti fuorvianti e di odio legati al conflitto. I funzionari dell'Unione Europea hanno inviato avvertimenti a TikTok, Meta, YouTube e X (ex Twitter), sollevando preoccupazioni per i contenuti legati alla guerra sulle loro piattaforme e ricordando alle società di social media che potrebbero rischiare multe miliardarie se un'indagine dovesse stabilire che hanno violato le leggi dell'UE sulla moderazione dei contenuti. Anche i legislatori degli Stati Uniti e del Regno Unito hanno chiesto alle piattaforme di garantire l'applicazione delle loro regole contro i contenuti illegali e di odio.
Meta ha dichiarato alla CNN, in ottobre, di aver istituito "un centro operativo speciale con esperti, tra cui persone che parlano correntemente l'ebraico e l'arabo, per monitorare da vicino e rispondere a questa situazione in rapida evoluzione" e di essersi coordinata con verificatori terzi nella regione.
Nelle settimane successive allo scoppio del conflitto tra Israele e Hamas, l'Oversight Board di Meta ha dichiarato di aver registrato un aumento di quasi tre volte della media giornaliera dei ricorsi degli utenti alle decisioni sui contenuti "relativi alla regione del Medio Oriente e del Nord Africa".
L'Oversight Board di Meta è un'entità composta da esperti in settori quali la libertà di espressione e i diritti umani. Viene spesso descritto come una sorta di Corte Suprema per Meta, in quanto permette agli utenti di appellarsi alle decisioni sui contenuti delle piattaforme dell'azienda. Il comitato formula raccomandazioni all'azienda su come gestire determinate decisioni di moderazione dei contenuti, oltre a suggerimenti di politica più ampia.
L'Oversight Board intende esaminare un video che sembra mostrare le conseguenze di un attacco all'esterno dell'ospedale Al-Shifa di Gaza City, pubblicato su Instagram all'inizio di novembre, che "mostra persone, compresi bambini, feriti o morti, che giacciono a terra e/o piangono". Una didascalia sotto il video in arabo e inglese faceva riferimento all'esercito israeliano, affermando che l'ospedale era stato "preso di mira dall'"occupazione usurpatrice"".
Meta ha inizialmente rimosso il post per violazione delle sue regole sui contenuti grafici e violenti. Dopo che il consiglio ha deciso di occuparsi del caso, Meta ha reso il video visibile con l'avvertenza che il contenuto è disturbante.
La commissione esaminerà anche un video che mostra il rapimento di due ostaggi da parte di militanti di Hamas - una donna su una moto e un uomo che viene portato via - in cui la didascalia invita a guardare per ottenere una "comprensione più profonda" dell'attacco del 7 ottobre a Israele.
Meta ha inizialmente rimosso il post per violazione di due politiche: le sue regole contro la violenza e l'incitamento, che sono state temporaneamente riviste per includere contenuti che identificano chiaramente gli ostaggi, e la sua politica sulle organizzazioni e gli individui pericolosi che proibisce immagini di attacchi terroristici su vittime visibili. (Meta considera Hamas un'organizzazione pericolosa e ha definito l'attacco del 7 ottobre come un attacco terroristico). In seguito, la società ha ripristinato il video con una schermata di avvertimento "in risposta alle tendenze di condivisione e di diffusione dei video di rapimenti di ostaggi".
La commissione prevede di prendere una decisione sui casi entro i prossimi 30 giorni.
Meta ha dichiarato in un post sul blog giovedì che "le indicazioni del consiglio in questi casi, insieme al feedback di altri esperti, ci aiuteranno a continuare a evolvere le nostre politiche e la nostra risposta alla guerra in corso tra Israele e Hamas". Ha aggiunto che intende attuare la decisione del consiglio in ogni caso.
Leggi anche:
- Telefónica punta al lancio sul mercato della telefonia con ologrammi
- vzbv: Le aziende di Internet continuano a imbrogliare nonostante il divieto
- Telefónica punta al lancio sul mercato della telefonia con ologrammi nel 2026
- Miglioramento minimo dell'ecobilancio dei sistemi informatici del governo federale
Fonte: edition.cnn.com