Aller au contenu

Lorsque s'achève la RNC, les efforts des États-swings pour lutter contre l'information fausses accordent une priorité avant l'élection

Un soldat dans une zone de guerre. Des musiciens de rue qui jouent. Une selfie riante.

Les cabines de vote sont visibles à la station de vote de Glass Elementary School à Eagle Pass,...
Les cabines de vote sont visibles à la station de vote de Glass Elementary School à Eagle Pass, Texas, le 8 novembre 2022.

Lorsque s'achève la RNC, les efforts des États-swings pour lutter contre l'information fausses accordent une priorité avant l'élection

When the public during an événement at the Convention nationale républicaine était demandé de lever la main lundi pour indiquer si ils pensaient que ces images étaient artificiellement générées, plusieurs participants ont pu correctement deviner quelles images étaient réelles, tandis que certains ont été perplexes.

Les expertes de Microsoft Ginny Badanes et Ashley O’Rourke ont guidé l'audience à travers les signes communs de la fausse image profonde, les méthodes de marquage du contenu, les conseils pour se préparer à lutter contre les fausse images et les façons de signaler lorsque les gouvernements et les partis politiques travaillent pour aborder la diffusion d'informations fausses de près.

Badanes a expliqué qu'une raison pour lesquelles ils effectuent ces formations, organisées par l'organisation All in Together et présentées par Microsoft, est pour que ceux qui sont impliqués dans le processus politique soient à l'affût de fausse images et pensent à ce qu'ils feront si quelque chose se produit concernant leur candidat ou organisation.

O’Rourke a déclaré que certaines des images de fausse profonde les plus convaincantes et crédibles étaient de fonctionnaires locaux et des candidats à l'élection.

"Si vous êtes une campagne ou un candidat en campagne, vous voulez être en mesure de mettre en évidence vos événements et de publier des déclarations de presse et des vidéos. Et vous voulez que les électeurs puissent considérer la contenance que vous mettez en évidence comme une source d'information fiable, et cette question des images de fausse profonde fait que les électeurs perdent cette confiance.", a-t-elle déclaré.

L'année électorale présidentielle américaine première depuis la croissance de l'IA sophistiquée et l'ère de la fausse image profonde approche, et des États-Unis d'Amérique font des efforts pour lutter contre la diffusion potentielle d'informations fausses en mettant en place des efforts pour que leurs bureaux électoraux soient prêts et en adoptant des lois pour aborder la menace.

"2024 est la première année électorale présidentielle américaine à l'intersection de la diffusion d'informations électorales fausses et de la croissance rapide de contenu généré par l'IA. Bien sûr, cela n'est pas nouveau. L'IA était déjà là, mais réellement nous avons ce pic à cette intersection cette année, et c'est un peu un orage parfait.", a déclaré Megan Bellamy, la vice-présidente de la politique et de la loi au Laboratoire des Droits de Vote.

Dans la ville de Philadelphie, le budget du bureau du commissaire de la ville comprend 1,4 million de dollars pour un plan de communication étendu, y compris un plan de lutte contre l'information fausses dans la ville, qui se concentre sur la communication préventive auprès des communautés cibles par l'information fausses via des plateformes telles que les réseaux sociaux et les annonces, ainsi que la réponse aux informations fausses lorsqu'elles apparaissent.

L'information s'est répandue rapidement en Pennsylvanie durant les élections de 2020, comme l'État balançant s'est confronté à des allégations infondées sur le vote en Pennsylvanie, une apparente inéquité envers les surveillants de tableau républicains et des violations de règles électorales. Ancien Président Donald Trump et sa campagne ont également répandu des informations douteuses sur le vote par correspondance sur de multiples plateformes, depuis les réseaux sociaux aux débats.

Le commissaire Seth Bluestein a déclaré qu'ils utilisent une partie du budget pour répondre à l'information fausses liées à l'intégrité des élections à Philadelphie.

"Il est toujours important de s'assurer que non seulement les élections sont bien gérées et sûres et efficaces et sûres et que les électeurs ont confiance dans le processus et que leurs votes sont comptés correctement.", a-t-il déclaré. "Ainsi, il est essentiel à la confiance dans le système d'être en mesure de riposter aux informations fausses et dissimulées lorsqu'elles apparaissent."

Le président du comité exécutif Omar Sabir a déclaré qu'il était particulièrement important de parler aux communautés latines, africaines et asiatiques parce qu'elles sont cibles de campagnes d'information fausses.

"Dans notre pays, l'information a été ciblée dans des villes telles que Philadelphie, Atlanta, Milwaukee, ces sont des zones où notre système électoral a été accusé de faire diverses activités. Et ces attaques ont conduit des gens à ne pas croire dans le processus ou à penser que leur vote ne compte pas.", a-t-il déclaré.

Sabir a déclaré que les efforts de lutte contre l'information fausses viseront les électeurs où ils sont, y compris les réseaux sociaux, les affiches et les annonces radiophoniques. Il a déclaré qu'ils auraient une équipe de communication complète disponible pour répondre lorsque des formes différentes d'information dissimulée apparaissent.

Lawrence Norden, directeur sénior du programme Élections et gouvernement du Centre Brennan, a déclaré que les prochaines semaines sont cruciales pour être proactif et fournir des informations exactes aux électeurs avant l'élection.

"Il y a des thèmes qui se répètent chaque fois que vous savez, 'vous ne pouvez pas vous fier aux machines de vote, ou le comptage à la main serait meilleur, ou il y a quelque chose de frauduleux dans le système en termes de qui vote.'. Expliquer à la gente ce qu'il y a de sécurité mesures en place à l'avance est la meilleure façon de les immuniser contre les informations fausses.", a-t-il déclaré.

En Arizona, le secrétaire d'État Adrian Fontes a lancé un comité consultatif dernier mois pour faire des recommandations politiques concernant l'AI et la sécurité des élections. Les discussions sont attendues pour se concentrer sur les potentialités bénéfiques et les risques pour la sécurité des élections en termes de contenu généré par l'IA.

Fontes a été reconnu en mai pour l'œuvre de son bureau d'état pour la création d'exercices de préparation tabletop visant à protéger l'infrastructure électorale de l'État. Il a organisé six exercices qui intègrent l'entraînement sur l'IA et la fausse image, exposant les participants à des scénarios et défis impliquant des cyberattaque et des campagnes d'information.

La série de programmes d'entraînement a commencé en décembre pour les fonctionnaires électoraux et s'est étendue à inclure la police et les médias nationaux.

"Les avancées en AI et en fausse image heightenent le potentiel pour la confusion. Cette reconnaissance réaffirme notre engagement à faire face à tous les défis qui pourraient survenir dans le maintien de l'intégrité et de la sécurité des élections en Arizona.", a-t-il déclaré en réponse de recevoir un prix pour l'oeuvre en mai.

Bellamy a déclaré qu'il était important de lutter contre l'information fausses à cette élection, et les élections gagnent beaucoup d'attention négative. Elle a déclaré qu'il serait encore plus important de se concentrer sur l'administration des élections elle-même, et toute forme d'information fausses ou dissimulées remue juste la base.

  1. Dans le contexte de la sécurité électorale, les législatures des États sont en train de présenter des lois pour réguler l'utilisation de l'IA et des fakes profonds dans les campagnes politiques pour prévenir la propagation d'informations fausses.
  2. La propagation d'informations fausses grâce à la technologie deepfake est de plus en plus préoccupante pour les partis politiques et les gouvernements, car elle peut éroder la confiance des électeurs dans le processus électoral et les informations qu'ils reçoivent des candidats.

Quand le représentant d'État azéri Alexander Kolodin a écouté une émission d'un podcast économiste qu'il écoute régulièrement, il a été choqué de découvrir qu'il écoutait une version générée par l'IA de la narration d'un homme dont il connaissait la voix.

"Je le connais bien, et la voix sonnait exactement comme la sienne", a déclaré le républicain azéri. "Je pense : 'Oh, mon dieu. Cela va être un problème en 2024, et c'est quelque chose que nous devons maintenant aborder parce que la technologie est là.' "

Il a déclaré qu'il voulait fournir un modèle de législation pour le pays entier qui aborde les fakes profonds mais respecte toujours la Première Amendement et les droits de libre parole et d'expression des citoyens. La loi Kolodin a ensuite parrainée, HB 2394, permet à une personne de porter plainte pour une imitation numérique dans les deux ans de la connaissance de la contenance si l'imitation n'avait pas été évidente que c'était une imitation numérique. La gouvernante démocrate Katie Hobbs l'a signée en mai.

Dans une autre loi venant d'Arizona, la législature a limité les créateurs à la création et à la distribution de médias synthétiques d'un candidat sur le bulletin de vote dans les 90 jours d'une élection, sauf si il y a une "claire et évidente révélation" qui indique à une personne raisonnable que le média inclut du contenu généré par l'IA.

En plus de la requirement de révélation, la loi, SB 1359, impose des pénalités civiles pour ceux qui ne respectent pas les règles. Elle a été signée en mai.

David Edmonson, vice-président sénior de la politique et des relations gouvernementales de TechNet, a déclaré qu'il y avait eu une grande explosion d'intérêt au niveau législatif des États autour de l'IA, et l'un des sujets qui sont régulièrement abordés, particulièrement dans une année électorale, est le sujet des fausses informations électorales et de la deepfake.

"L'IA a le potentiel pour résoudre certains des plus grands défis de notre époque", a déclaré Edmonson. "Mais reconnaître et aborder les vrais risques associés à l'IA est crucial pour son avancement responsable, et cela comprend empêcher les candidats, ou leurs agents, ou n'importe qui d'utiliser l'IA pour libérer du contenu de campagne délibérément trompeur.

Le gouverneur du Wisconsin Tony Evers a signé une loi en mars qui impose un avertissement de l'utilisation de l'IA pour le contenu dans les publicités politiques. La loi, AB 664, qui a traversé les institutions législatives de l'État fait référence au "média synthétique" comme du contenu audio ou vidéo produit par des moyens génératifs d'intelligence artificielle et donne des indications sur les avertissements pour le contenu audio et vidéo.

Les violations à la requirement aurait entraîné des pénalités allant jusqu'à 1 000 $ par violation.

Adam Neylon, qui a co-parrainé la loi, a déclaré qu'il s'agissait d'un effort bipartisan pour aborder les questions relatives à l'IA, et le problème de campagnes, de publicités et d'annonces commerciales s'est répété dans les conversations. Il a déclaré que c'était une vraie menace pour la démocratie lorsque l'on commence à éroder la confiance dans le processus démocratique, et cette loi assure que les gens sont en mesure de se fier à ce qu'ils voient, de croire ce qu'ils entendent et de déterminer eux-mêmes quand l'IA est utilisée pour manipuler quelque chose.

"Donc maintenant en Wisconsin, nous avons travaillé sur une loi bipartisane qui a été signée en loi par le gouverneur pour exiger que les campagnes ou les organisations politiques fournissent un avertissement lorsqu'elles sont utilisées pour des publicités politiques. Nous pensons donc qu'il est important pour les gens de savoir quand l'IA est utilisée, de sorte qu'ils puissent se fier à ce qu'ils voient et croire ce qu'ils entendent", a déclaré Neylon.

Lia Holland, la directrice des campagnes et des communications de Fight for the Future, a déclaré qu'elle s'inquiète que les lois exigeant des révélations "créeront un déséquilibre médiatique et freineront la parole politique légitime".

"Les gens peuvent faire un bon travail pour imiter les politiciens et éviter ces lois", a déclaré Holland. "Et qu'en est-il des fakes positifs ? J'ai vu beaucoup d'images faisant de Trump un super-héros musclé, ces images doivent-elles être disclosées ? Et qu'est-ce qui est la ligne dans l'art pour généré ou non généré par l'IA – les artistes handicapés qui utilisent l'IA comme outil dans leur art risquent-ils d'être discriminés lorsque leur art est contraint d'être étiqueté comme généré par l'IA ?"

Lire aussi:

commentaires

Dernier