Aller au contenu

Chaos sur les plateformes sociales après l'attentat contre Trump est une affaire de leur propre faussse volonté.

L'industrie des réseaux sociaux a présenté une réponse prudente cette semaine face aux théories du complot flottantes sur leurs plates-formes à propos de l'essai d'assassinat sur l'ancien président Donald Trump a été partie intégrante d'un déplacement volontaire vers une gestion moins active du...

Le candidat républicain Donald Trump est vu avec du sang sur le visage entouré d'agents secret...
Le candidat républicain Donald Trump est vu avec du sang sur le visage entouré d'agents secret service.

Chaos sur les plateformes sociales après l'attentat contre Trump est une affaire de leur propre faussse volonté.

Le réaction n'a pu être plus opposée à celle de 2021, face au pays dernier incident de violence politique du pays. Cela ne bode bien pour les prochaines élections – ou leur après-résultat.

Trois ans auparavant, les plateformes en ligne majeures telles que Meta, Twitter et YouTube ont pris des mesures rapides pour empêcher l'attaque sur la démocratie des États-Unis du 6 janvier de s'amplifier en ligne – suspendant des milliers de comptes qui avaient promu des fausses informations sur les élections, mettant un arrêt sur les annonces publicitaires politiques et enlevant des publications qui louaient l'attaque au Capitole américain, entre autres mesures.

Cependant, dans un contraste net, les plateformes sociales durant les dernières jours ont été envahies par des fausses informations sur l'essai sur la vie de Trump, allant des spéculations sans fondement de gauche qui suggéraient que l'événement avait été "monté" à des fins politiques de Trump à des théories de conspirations de droite qui suggéraient que des agents du gouvernement profond ou peut-être même le président Joe Biden lui-même avaient orchestré l'attaque.

L'événement n'a pas été monté. La Secrétaire d'État des États-Unis a décrit l'incident comme un essai sur la vie et le Département d'Affaires de Sécurité intérieure l'a reconnu comme une échec de la sécurité. Les enquêteurs continuent de chercher le motif du tireur. Et Biden a condamné la violence politique suivant l'attaque, promettant une enquête indépendante sur le lapsus de sécurité.

Les PDG des tech ont touséchoqués les remarques de Biden. Mais dans la torrent de théorisations de conspirations, les plateformes sociales ont été largement silencieuses sur leur propre rôle dans l'évolution de l'événement en ligne, reflet d'un net départ de leur approche précédente de contenir la propagation de fausses informations qui, laissées sans contrôle, pourraient risquer de provoquer de nouveaux conflits.

Aucune des plus grandes plateformes sociales des États-Unis n'a répondu aux questions répétées de CNN durant plusieurs jours cette semaine sur les actions qu'elles ont prises face à la désinformation et aux théories de conspirations circulant autour du tir sur la manifestation de Trump. Meta, Google, TikTok et X n'ont pas répondu. Seule Snapchat a émis un communiqué de presse disant qu'elle est conçue "differemment des plateformes sociales traditionnelles" en ce qu'elle ne offre pas un flux de nouvelles curé par l'utilisateur où les utilisateurs peuvent diffuser des fausses informations.

La silence intransigeant des plateformes technologiques souligne comment les géants de l'industrie ont évolué significativement dans les trois dernières années vers une approche plus laissez-faire – dans leur dernière tentative de gérer, en temps réel, les valeurs concurrentes de l'expression libre, de la sécurité en ligne et de la neutralité politique. Et ce que les utilisateurs ont expérimenté sur les réseaux sociaux dans les premiers moments de l'attaque sur Trump est une indication de ce qui est à venir, a déclaré Imran Ahmed, PDG du Centre contre la Haine numérique (CCDH), un groupe de vigilance des réseaux sociaux qui avocat pour une réglementation plus stricte des plateformes.

"Ceci devrait être une avertissement", a déclaré Ahmed, "que les mois à venir vont être tout aussi déroutants, stultifiants et confus que les derniers jours ont été sur les réseaux sociaux."

Comment nous sommes arrivés là?

Un tableau d'échecs confus a combiné pour créer un environnement d'information plus toxic.

D'une manière visible, l'achat d'Elon Musk de Twitter, maintenant connu sous le nom de X, a transformé ce qui était autrefois la destination sociale média de brise de nouvelles en une plateforme plus brouillée et moins fiable.

Musk a pris plusieurs décisions interconnectées autour de la vérification des comptes, des paiements aux créateurs et de qui autoriser sur la plateforme qui ont dégradé la capacité des utilisateurs à se confier l'un à l'autre et à ce qu'ils y voient, ont longtemps dit les chercheurs en désinformation. Et il a érigé des obstacles à la responsabilité indépendante en forçant les chercheurs à payer des frais astronomiques pour accès aux données de la plateforme.

Les utilisateurs de X sont maintenant récompensés financièrement pour poster le contenu le plus inflammatoire et engagé, quelle que soit sa véracité ou sa véridique. Bien que Musk ait annoncé la fonction de vérification de la foule de X, les Notes communautaires, comme un rempart contre la désinformation, elle a été fortement critiquée comme lente et inefficace. Le mardi, le CCDH a publié de nouvelles recherches trouvant que de 100 publications de théories de conspirations de première ligne sur le tir sur Trump d'X, seulement cinq en contenaient une Note de réfutation d'une faussse allégation. Les publications ont ensemble reçu plus de 215 milliards de vues sur X, d'après le CCDH.

Dès que Musk a racheté la plateforme, il a licencié environ 80% du personnel d'avant l'acquisition de Twitter. Les coupes profondes ont affecté l'équipe de confiance et de sécurité de la plateforme responsable de la garde et, dans un mouvement séparé, Musk a supprimé le conseil de confiance de Twitter des experts extérieurs.

Mais X n'était pas seul à réduire les investissements en confiance et en sécurité. Industriellement, les entreprises ont justifié des licenciements généralisés en raison de conditions économiques difficiles. En 2019, Snapchat employait 763 personnes travaillant sur la confiance et la sécurité, un nombre qui s'est élevé à plus de 3 000 par 2021, la compagnie a déclaré à la Chambre des représentants cette année. Mais par 2023, ce chiffre était tombé de 27% à 2 226. Meta et TikTok ont déclaré à la Chambre des représentants qu'elles chacune employaient environ 40 000 employés de sécurité, mais n'ont pas révélé comment ce chiffre a évolué au cours du temps.

Les sociétés de médias sociaux se sont retirées d'autres manières également, comme YouTube décidant à nouveau de permettre des fausses informations sur les élections de 2020 sur sa plateforme et Meta décidant de mettre un arrêt sur l'amplification des nouvelles, de la politique et des sujets sociaux dans ses flux de nouvelles curés tout à fait.

"Meta a décidé qu'il ne peut pas gérer de manière rentable la livraison de contenu civique", a déclaré Laura Edelson, professeure adjointe de l'informatique à l'Université Northeastern et codirectrice de Cybersecurity for Democracy, un groupe de recherche sur la désinformation numérique. "Il ne peut pas créer un produit social média sûr qui fait de la politique et des sujets civiques, et donc il s'est retiré de ce marché."

Baybars Orsek, directeur gérant de l'organisation de vérification des faits Logically Facts, a déclaré que ces et autres changements des plateformes de médias sociaux ont fait travailler avec eux ces dernières années plus défiants.

"C'est inquiétant de constater que certaines plates-formes ont choisi de s'éloigner du discours politique plutôt que d'appliquer des politiques transparentes et échelonnables pour protéger la liberté d'expression tout en maintenant un environnement d'information sûr," a déclaré Orsek à CNN.

Ce n'est pas seulement les décisions des affaires internes des sociétés qui poussent le changement. Depuis les élections de 2020, les chercheurs qui étudient les plateformes numériques ont increasingly signalé des harcèlements et des intimidations, en certains cas par des parlementaires américains qui ont sans fondement accusé qu'ils font partie d'une campagne de pression gouvernementale visant à silencer le discours de droite sur les réseaux sociaux.

Pour des années, certains conservateurs ont affirmé que le gouvernement américain, à travers des réunions régulières et des courriels avec les sociétés de médias sociaux, a pressé les plateformes pour retirer des fausses informations sur la Covid-19 et les informations de dénigrement des élections en violation des droits de la Première Amendement des Américains. Ces revendications ont atteint leur point culminant cette année au Tribunal suprême, où, dans une jugement étriqué, une majorité de 6 à 3 n'a pas dit que les efforts du gouvernement pour persuader les plateformes de retirer des publications était inconstitutionnel.

Cette décision signifie effectuellement que le gouvernement américain peut continuer à signaler des menaces d'informations fausses aux sociétés de médias sociaux dans la perspective des élections de 2024. Mais c'est toujours aux sociétés de décider de quoi faire de ces informations. Et l'attentat sur Trump à la manifestation a soulevé des nouvelles questions sur leur disposition à agir sur cela, particulièrement dans le contexte d'une campagne soutenue par les critiques de la droite sociale de dénigrer le travail de confiance et de la recherche sur l'information fausses.

Comment cela s'est déroulé samedi

La combinaison de tous ces facteurs a créé des conditions propices à un orage d'informations fausses sur l'attentat contre Trump.

L'événement a engendré une forte demande d'informations. Les médias d'information traditionnels, en se limitant à des informations crédibles, étaient initialement plus lents à en informer le public que la vitesse frenétique des spéculations sur les réseaux sociaux. Cela a entraîné, selon les chercheurs, un vide d'information : une lacune entre ce qui est connu et ce que les publics veulent savoir.

La décision de Meta de ne plus amplifier les nouvelles et le discours politiques dans les flux personnalisés – partie d'une stratégie plus large de l'industrie de confiance et de sécurité poussée par des pressions internes et externes – a pu empêcher certains personnes de se jeter dans des trou d'erreur algorithmiques, au moins sur les plateformes détenues par Meta.

Mais dans les premiers minutes de l'événement, certains utilisateurs de Threads ont signalé que les mentions de l'incident ne pouvaient pas être trouvées immédiatement sur le site, ce qui était en contraste direct avec X – où, grâce aux décisions antérieures de Musk, la pensée conspiratoire commençait déjà à couler à plein régime.

La retraite de Meta de la promotion de la contenu d'information par rapport aux événements de actualité a probablement contribué au vide d'information, a déclaré Edelson, car elle a échoué à suffisamment élever les rapports d'information crédibles et a probablement poussé les utilisateurs vers les théoriciens de la conspiration sur d'autres plateformes.

La décision met en évidence les difficiles compromis de la gestion d'un écosystème d'information en mouvement rapide, a déclaré Orsek.

“Le manque de contrôle strict de la modération de contenu sur X a entraîné une prolifération d'informations fausses, tandis que la stratégie plus conservatrice de Meta a abouti à une diffusion moins immédiate d'informations, à la fois vérifiées et non vérifiées,” a déclaré Orsek.

(Le Verge a signalé samedi que Meta semblait apparaître en surface dans les résultats de recherche Facebook sur l'incident de tir, mais qu'il présentait de manière inconsistante du contenu lié à la conspiration en haut de son sujet de tendance pour l'incident.)

En parallèle, Edelson a ajouté, TikTok a émergé comme une plateforme clé pour la diffusion d'informations fausses grâce à l'algorithme de recommandation de TikTok qui a surfacé des vidéos qu'il croyait résonner avec les utilisateurs, plutôt que principalement des informations d'autorité.

Pour d'autres utilisateurs de médias sociaux, l'épisode a mis en évidence le choix de X pour suivre les grands événements de actualité en ligne, même si la qualité de l'information était dégradée. Et les narratives fausses pro-Trump et anti-Trump liées à l'attentat montrent comment les Américains sont préparés à regarder le même événement à travers des lentilles complètement différentes, indépendamment des faits sous-jacents.

L'ardeur avec laquelle les personnes à droite, et de plus en plus à gauche, ont adopté des revendications trompeuses liées à l'attentat est une préoccupation pour la discours et la démocratie, ont déclaré certains chercheurs.

Cela inclut Alicia Wanless, directrice du Projet d'environnement d'information de la Fondation Carnegie pour la Paix Internationale, qui a été enquêtant sur la façon dont les gens créent leurs propres réalités à partir de l'information qu'ils consomment et des technologies qu'ils utilisent.

“J'ai trouvé un modèle selon lequel, après que les technologies changent la façon dont les humains peuvent produire et partager de l'information,” a déclaré Wanless, “cela mène à des collisions de réalités dans lesquelles les partisans de divers côtés et idéologies essaient de convaincre les publics que leur narrative est la vérité.”

Historiquement, si les tensions entre réalités ne peuvent être résolues, avertit Wanless, elles aboutissent souvent à la violence.

“Toutes mes études ont mené à des conflits,” a-t-elle déclaré.

Les plateformes de médias sociaux ont été critiquées pour leur manque d'action face aux fausses revendications et aux théories de conspiracy. Cela contraste fortement avec leur approche proactive de 2021, où elles ont suspendu des comptes, suspendu les publicités politiques et retiré des publications promouvant des mensonges électoraux. (affaires, tech)

La dégradation de la capacité des utilisateurs à se confier l'un à l'autre et à l'information qu'ils voient sur les plateformes de médias sociaux peut être liée aux décisions d'Elon Musk concernant la vérification des comptes, les paiements aux créateurs et ceux qu'il autorise sur Twitter. (affaires, tech)

Lire aussi:

commentaires

Dernier

Sur cette photo illustrative prise le 15 septembre 2017, l'icône de l'application Telegram est...

Telegram sert de plateforme pour les opérations commerciales clandestines des syndicats criminels à travers l'Asie du Sud-Est, selon l'affirmation de l'ONU.

Les syndicats du crime organisé en Asie du Sud-Est utilisent étroitement l'application de messagerie Telegram, ce qui a entraîné un glissement important dans la manière dont ils opèrent dans des activités illicites à grande échelle, selon un communiqué émis par les Nations unies le...

Membres Publique
Rodrigo Duterte, le président des Philippines, prononce un discours lors d'une réunion organisée à...

L'ancien président philippin Duterte a l'intention de se présenter à la présidence de la ville, en ignorant son passé controversé de campagne contre la drogue.

Dans un coup de théâtre inattendu, l'ancien président philippin Rodrigo Duterte a annoncé son intention de briguer le poste de maire dans le district sud de sa ville natale, malgré l'enquête en cours de la Cour pénale internationale concernant sa célèbre campagne contre la drogue, que certains...

Membres Publique