Le comité de surveillance de Meta doit se prononcer sur le traitement par la société du contenu de la guerre entre Israël et le Hamas
C'est la première fois que le conseil mène une procédure d'examen "accélérée", un clin d'œil à l'examen minutieux auquel Meta, la société mère de Facebook, et d'autres entreprises de médias sociaux ont été soumises en raison de contenus liés au conflit. Le conseil a décidé de procéder à un examen plus rapide dans ce cas parce que les décisions relatives au contenu lié à la guerre pourraient avoir des "conséquences urgentes dans le monde réel", a déclaré le conseil dans un communiqué.
Dans les semaines qui ont suivi l'attaque du Hamas contre Israël, les principales plateformes de médias sociaux ont été confrontées à la question de savoir si elles hébergeaient des contenus trompeurs et haineux liés au conflit. Des fonctionnaires de l'Union européenne ont envoyé des avertissements à TikTok, Meta, YouTube et X (anciennement Twitter), exprimant leurs inquiétudes quant à la présence de contenus liés à la guerre sur leurs plateformes et rappelant aux entreprises de médias sociaux qu'elles pourraient se voir infliger des milliards de dollars d'amendes si une enquête révélait ultérieurement qu'elles avaient enfreint les lois européennes sur la modération des contenus. Les législateurs américains et britanniques ont également demandé aux plateformes de veiller à l'application de leurs règles contre les contenus haineux et illégaux.
Meta a déclaré à CNN en octobre qu'elle avait mis en place "un centre d'opérations spéciales composé d'experts, dont des personnes parlant couramment l'hébreu et l'arabe, afin de suivre de près cette situation qui évolue rapidement et d'y répondre", et qu'elle se coordonnait avec des vérificateurs de faits tiers dans la région.
Dans les semaines qui ont suivi l'éclatement du conflit entre Israël et le Hamas, le comité de surveillance de Meta a indiqué qu'il avait constaté une multiplication par près de trois du nombre moyen quotidien de recours d'utilisateurs contre des décisions relatives à des contenus "liés à la région du Moyen-Orient et de l'Afrique du Nord".
Le comité de surveillance de Meta est une entité composée d'experts dans des domaines tels que la liberté d'expression et les droits de l'homme. Il est souvent décrit comme une sorte de Cour suprême pour Meta, car il permet aux utilisateurs de faire appel des décisions relatives au contenu sur les plateformes de l'entreprise. Le comité fait des recommandations à l'entreprise sur la manière de traiter certaines décisions de modération de contenu, ainsi que des suggestions de politique générale.
Le comité de surveillance prévoit d'examiner une vidéo qui semble montrer les conséquences d'une frappe à l'extérieur de l'hôpital Al-Shifa à Gaza City, postée sur Instagram début novembre, qui "montre des personnes, y compris des enfants, blessées ou mortes, allongées sur le sol et/ou en train de pleurer". Une légende sous la vidéo en arabe et en anglais faisait référence à l'armée israélienne, déclarant que l'hôpital avait été "ciblé par l'occupation usurpatrice".
Meta a d'abord supprimé le message pour violation de ses règles en matière de contenu graphique et violent. Un utilisateur a fait appel de la décision, demandant que la vidéo soit rétablie. Après que le conseil d'administration a décidé de se saisir de l'affaire, Meta a rendu la vidéo visible avec un avertissement indiquant que le contenu est dérangeant.
La commission examinera également une vidéo montrant deux otages enlevés par des militants du Hamas - une femme sur une moto et un homme emmené à pied - dans laquelle la légende invite les gens à regarder la vidéo pour acquérir une "compréhension plus profonde" de l'attaque du 7 octobre contre Israël.
Meta a d'abord supprimé le message pour violation de deux politiques : ses règles contre la violence et l'incitation, qui ont été temporairement révisées pour inclure un contenu qui identifie clairement les otages, et sa politique relative aux organisations et individus dangereux qui interdit l'imagerie des attaques terroristes sur des victimes visibles. (Meta désigne le Hamas comme une organisation dangereuse dans le cadre de sa politique et a qualifié l'attentat du 7 octobre d'attentat terroriste). La société a ensuite rétabli la vidéo avec un écran d'avertissement "en réponse aux tendances de partage et de diffusion des vidéos d'enlèvement d'otages".
La commission devrait rendre une décision sur ces affaires dans les 30 prochains jours.
Meta a déclaré dans un billet de blog jeudi que les "conseils de la commission dans ces cas, ainsi que les commentaires d'autres experts, nous aideront à continuer à faire évoluer nos politiques et notre réponse à la guerre actuelle entre Israël et le Hamas". Il a ajouté qu'il prévoyait de mettre en œuvre la décision du conseil dans chaque cas.
Lire aussi:
- Telefónica vise le lancement commercial de la téléphonie par hologramme
- vzbv : Les groupes Internet continuent à tricher malgré l'interdiction
- Telefónica vise un lancement commercial de la téléphonie par hologramme en 2026
- L'écobilan des systèmes informatiques de la Confédération ne s'est guère amélioré
Source: edition.cnn.com