zum Inhalt

Beim Ende der RNC schüren Bundesstaaten ihr Anstrengen zum Kampf gegen Misinformation vor der Wahl auf.

Ein Soldat in einer Kampfzone. Mitglieder einer Band spielend in der Straße. Ein lachender Selbstporträt.

Wahlurnen sind an der Wahllokalstelle der Glass Elementary School in Eagle Pass, Texas, am 8....
Wahlurnen sind an der Wahllokalstelle der Glass Elementary School in Eagle Pass, Texas, am 8. November 2022 zu sehen.

Beim Ende der RNC schüren Bundesstaaten ihr Anstrengen zum Kampf gegen Misinformation vor der Wahl auf.

Wenn Zuschauer während einer Veranstaltung an der Republikanischen Nationalkonvention am Montag aufgefordert wurden, die folgenden Bilder künstlich generiert zu sein, um sie zu erkennen, konnten mehrere Teilnehmer es richtig vermuten, während andere verunsichert blieben.

Microsoft-Experten Ginny Badanes und Ashley O’Rourke führten das Publikum durch häufige Zeichen von Tiefenfalschungen, Methoden der Inhaltsbeschriftung, Tipps, um gegen Tiefenfalschungen vorzugehen und Wege, um zu melden, während Bundes- und Landesregierungen und politische Parteien daran arbeiten, Falschinformationen an den Quellen anzugreifen.

Badanes erklärte, dass sie diese Schulungen, die von der Organisation All in Together und von Microsoft durchgeführt wurden, machen, damit jene, die an politischen Prozessen beteiligt sind, Tiefenfalschungen verfolgen und daran denken, was sie tun würden, wenn etwas mit ihrem Kandidaten oder Organisation passiert.

O’Rourke sagte, dass die verführerischsten und glaubwürdigsten Tiefenfalschungen von lokalen Beamten und Kandidaten für das Amt sind, anstatt von Kandidaten auf bundesebene.

"Wenn Sie eine Kampagne oder Kandidat sind, die für das Amt kandidieren, möchten Sie Fotos Ihrer Veranstaltungen und Presseerklärungen und Videos veröffentlichen und wollen Wähler Ihre Inhalte als vertrauenswürdige Quelle für Informationen wahrnehmen," sagte sie. "Dieses Tiefenfalschungsproblem lässt Wähler die Vertrauenswürdigkeit der Inhalte, die Sie ausgeben, verlieren."

Mit dem nahenden ersten Präsidentschaftswahljahr seit dem Aufkommen hochwertiger künstlicher Intelligenz und der Ära des Tiefenfalschings nähert sich, haben Bundesstaaten Vorbereitungen getroffen, um gegen die mögliche Verbreitung von Falschinformationen während der Wahl vorzugehen, indem sie sicherstellen, dass ihre Wahlbehörden bereit und Gesetze zur Ansprache stehen, um die Bedrohung anzugreifen.

"2024 ist das erste amerikanische Präsidentschaftswahljahr an dieser Schneide von Wahlbezogenen Falsch- und Ungenauigkeitsinformation und dem rapiden Wachstum von AI-generierter Inhalt. Natürlich ist es nicht neu. AI war schon da, aber wirklich haben wir diesen Gipfel an dieser Schneide dieses Jahres, und ein bisschen ein Perfekter Sturm," sagte Megan Bellamy, die Vizepräsidentin für Recht und Politik bei der Voting Rights Lab.

In Philadelphia hat das Stadtwahlbüro ein Budget von 1,4 Millionen Dollar für eine umfassende Kommunikationsstrategie eingeräumt, die sich auf die vorsichtige Kommunikation mit Gemeinschaften fokussiert, die von Falschinformationen betroffen sind, über Plattformen wie Social Media und Werbeanzeigen, sowie auf die Antwort auf Falschinformationen, wenn sie auftritt.

Die Falschinformation verbreitete sich schnell durch Pennsylvania während der Wahl 2020, als der Swing-Staat mit unwahren Anschuldigungen gegenüber der Stimmabgabe in Pennsylvania, einem ungleichen Behandlung gegenüber republikanischen Wahlsperrern und Verstößen gegen Wahllandesbestimmungen konfrontiert wurde. Der ehemalige Präsident Donald Trump und seine Kampagne verbreiteten zweifelhafte Informationen über Stimmabgabe per Brief über viele Plattformen, von Social Media bis hin zum Podium der Debatte.

Der Stadtwahlbeamte Seth Bluestein sagte, dass sie einen Teil des Budgets verwenden, um auf die Richtigkeit der Wahlen in Philadelphia zu antworten, wenn es sich um Falschinformationen bezüglich der Wahlen in Philadelphia handelt.

"Es ist immer wichtig, sicherzustellen, dass nicht nur Wahlen effizient und sicher und effizient gelaufen und gesichert sind, sondern auch, dass die Wähler Vertrauen in das Verfahren haben und dass ihre Stimmen genau zählbar sind," sagte Bluestein. "Das ist essentiell, um dem System Glauben zu schenken, um Falsch- und Ungenauigkeitsinformationen, wenn sie auftritt, zurückzuschlagen."

Der Vorsitzende des Wahlbeamtenkollegiums Omar Sabir sagte, dass es besonders wichtig ist, mit Latinos, Afroamerikanern und Asiaten zu sprechen, weil diese Zielgruppen von Falschinformationenangriffen betroffen sind.

"Laut unserem Land überall, hat die Falschinformation Zielgebiete wie Philadelphia, Atlanta, Milwaukee angeschnitten, die unsere Wahlsysteme mit der Anklage von verschiedenen Aktivitäten beschuldigt wurden. Diese Art von Angriffen haben dazu geführt, dass Menschen an den Prozess glauben oder glauben, dass ihr Stimmabgabe keinen Wert hat," sagte Sabir.

Sabir sagte, dass die Bemühungen, gegen Falschinformationen vorzugehen, die Zielgruppen ansprechen werden, einschließlich Social Media, Plakatwerbung und Radiowerbung. Er sagte, sie hätten eine volle Kommunikationsfirma zur Verfügung, um zu antworten, wenn Menschen verschiedene Formen von Ungenauigkeitsinformationen erfinden.

Lawrence Norden, Leiter des Brennan Center’s Wahlen und Regierung Programms, sagte, dass die nächsten Monate essentiell sind, um vorsorglich und genaue Informationen den Wählern vor der Wahl zur Verfügung zu stellen.

"Es gibt bestimmte Themen, die jedes Mal wiederholen, 'Sie können die Stimmmaschinen nicht vertrauen, oder man hätte besser gehandzelt, oder es gibt Betrug im System in Hinblick auf diejenigen, die wählen.' Erklären Sie den Sicherheitsmaßnahmen, die in Kraft sind, vorher ist die beste Art und Weise, um die Menschen gegen Falschinformationen zu immunisieren," Norden sagte.

In Arizona hat der Sekretär des Staates Adrian Fontes ein Beratergremium im letzten Monat gegründet, um Ratschläge zur Politik bezüglich AI und Wahlsicherheit abzugeben. Die Gespräche sollen sich auf die potenziellen Vorteile und Risiken für die Wahlsicherheit in Hinblick auf generative AI konzentrieren, laut einem Pressmitteilungsservice seines Büros.

Fontes wurde im Mai für sein Büro gewürdigt, das Wahlsicherheit-Tischübungsübungen geschaffen hat, die die Schutzmaßnahmen des Staates für die Wahleninfrastruktur zum Ziel haben. Er hat sechs Übungen durchgeführt, die AI und Tiefenfalschungstraininge umfassen, die Teilnehmern Szenarien und Herausforderungen mit Cyberangriffen und Disinformationskampagnen aussetzen.

Die Reihe von Schulungsprogrammen begann im Dezember für Wahlbeamte und hat sich auf die Polizei und nationale Medien erweitert.

"Fortschritte in AI und Tiefenfalschungstechnologie erhöhen die Potentialität für Chaos. Dieses nationale Anerkennung bestätigt, dass wir daran hängen, was uns auf dem Weg in der Wahrung der Integrität und Sicherheit von Wahlen in Arizona kommt," sagte Fontes im Mai in einer Pressemitteilung in Antwort auf die Auszeichnung für die Arbeit.

Bellamy sagte, dass es wichtig ist, Falschinformationen vor dieser Wahl zu bekämpfen, und Wahlen erfahren viel Negativaufmerksamkeit. Sie sagte, es wäre wichtiger als jemals, den Fokus auf die Verwaltung der Wahlen selbst zu legen, und jeg

  1. Im Hinblick auf die Wahlsicherheit begrenzen sich Staatslegislaturen in den USA Gesetzgebungen ein, um die Nutzung künstlicher Intelligenz (AI) und Falschbilder in politischen Kampagnen zu regulieren, um die Verbreitung von Irreführung zu verhindern.
  2. Die Verbreitung von Irreführung durch Falschbildtechnologie ist in politischen Kreisen und Regierungen eine ernsthafte Sorge geworden, da sie den Glauben der Wähler an den Wahlsprozess und die Informationen von Kandidaten schädigen kann.

Repräsentant Alexander Kolodin aus Arizona war erschockt, als er in einer Episode eines Ökonomenpodcasts, den er häufig hörte, eine AI-generierte Version des Narrators hörte, die genau wie er klang.

"Ich kenne diesen Mann und das Klang genau wie er", sagte der republikanische Abgeordnete aus Arizona. "Ich gehe: 'Oh, heiliger Scheiß. Das wird ein Problem sein in 2024, und das ist etwas, was wir jetzt ansprechen müssen, weil die Technologie da ist.'“

Er wollte ein Beispielgesetz liefern, das die Falschbilder adressiert, aber dennoch die Grundrechte der Ersten Verfassung und die Bürgerrechte auf Freiheit der Meinung und Ausdruck respektiert. Das Gesetz, das Kolodin dann gesponsert hat, HB 2394, erlaubt es einer Person, innerhalb von zwei Jahren nach der Kenntnis der Inhalte eine Klage wegen digitaler Verfälschung zu stellen, wenn die Verfälschung ohne ihr Einverständnis veröffentlicht wurde oder nicht offensichtlich als digitale Verfälschung gekennzeichnet war. Gouverneurin Katie Hobbs von Arizona unterzeichnete das Gesetz im Mai.

In einer weiteren Gesetzgebung aus Arizona beschränkte der Staat die Schöpfer darauf, künstliche Medien von einem Kandidaten auf dem Stimmzettel innerhalb von neunzig Tagen einer Wahl zu erstellen und zu verbreiten, außer es gibt eine "deutliche und aufmerksamkeitsgreifende Mitteilung, die einem durchschnittlichen Menschen aufmerksam macht, dass das Medium Inhalt generiert wurde, der künstliche Intelligenz enthält".

Neben der Mitteilungspflicht legt das Gesetz, SB 1359, Strafen für Nicht-Konformität fest. Es wurde im Mai unterzeichnet.

David Edmonson, der Senior Vice President für Technologie und Regierungsbeziehungen von TechNet, sagte, es gebe eine große Explosion des Interesses auf der Ebene der Staatslegislative rund um die AI und eine der häufigsten Themen, die in einem Wahljahr aufgekommen sind, sei die Thematik der Wahlbezogene Falschbilder und Irreführung.

"AI hat das Potenzial, einige der größten Herausforderungen unserer Zeit zu lösen", sagte Edmonson. "Aber die erkennung und die Adressierung der echten Risiken, die mit AI verbunden sind, ist unabdingbar für ihre verantwortungsvollere Fortentwicklung, und das beinhaltet auch die Vermeidung von Kandidaten oder ihren Agenten oder jemandem andern, die mithilfe von AI verlogene Wahlkampfinhalte veröffentlichen lassen."

Gouverneur Tony Evers von Wisconsin unterzeichnete im März ein Gesetz, das eine Mitteilung zur Nutzung von AI für Inhalte in politischen Werbeanzeigen vorschreibt. Das Gesetz, AB 664, das durch das Parlament von Wisconsin gekommen ist, bezeichnet "synthetische Medien" als audiovisuelle Inhalte, die mit generativer künstlicher Intelligenz erstellt wurden, und gibt Richtlinien für Mitteilungen für audiovisuelle Inhalte vor.

Verstöße gegen die Anforderung hätten Strafen bis zu 1.000 US-Dollar für jede Verletzung.

Adam Neylon, der Mit-Sponsor des Gesetzes, sagte, es habe mit einer bipartisanen Anstrengung zur Behandlung von AI-Problemen begonnen und die Auswirkungen auf Kampagnen, Werbespots und Werbung wiederholt in den Gesprächen aufgekommen waren. Er sagte, es sei ein echtes Problem für die Demokratie, wenn man den Vertrauen in den demokratischen Prozess schädigt, und diese Gesetze sichern, dass Menschen in der Lage sind, was sie sehen, glauben und hören zu vertrauen, während sie selbst entscheiden können, wann AI verwendet wird, um etwas zu manipulieren.

"So in Wisconsin haben wir eine bipartisanen Gesetzentwurf getroffen, der von Gouverneur Tony Evers unterzeichnet wurde, um die Kampagnen oder politischen Organisationen dazu zu verpflichten, wenn sie für Wahlwerbung verwendet werden, eine Mitteilung zu geben. Wir denken, dass es wichtig ist, dass die Menschen wissen, wenn AI verwendet wird, damit sie was sie sehen und glauben können", sagte Neylon.

Lia Holland, die Kampagnen- und Kommunikationsdirektorin von Fight for the Future, sagte, sie befürchte, dass die Gesetze, die Mitteilungen erfordern, "eine Asymmetrie in der Medienlandschaft schaffen und die legitime politische Meinungsäußerung hemmen werden".

"Leute können eine gute Arbeit leisten, Politikern zu ähneln und diese Gesetze umgehen", sagte Holland. "Und was über positive Falschbilder? Haben ich gesehen, dass Trump als muskulöser Übermensch dargestellt wurde, müssen diese diskriminiert werden? Und was ist die Grenze in der Kunst für AI-generiert oder nicht AI-generiert – werden behinderte Künstler, die AI als Werkzeug in ihrer Kunst verwenden, diskriminiert, wenn ihre Kunst gezwungen wird, als AI-generiert zu markiert werden?"

Lesen Sie auch:

Kommentare

Aktuelles