ir al contenido

Los Estados se dirigen a la IA y a las falsificaciones profundas a medida que se avecina la amenaza de interferencia electoral

La preocupación bipartidista sobre la interferencia en las elecciones generadas por IA ha impulsado una red de leyes en todo el país, mientras los legisladores estatales buscan atenuar el impacto de la desinformación y evitar que los deepfakes abrumen a los votantes.

Vista de cabinas de votación en una estación de votación en el borough de Brooklyn de la Ciudad de...
Vista de cabinas de votación en una estación de votación en el borough de Brooklyn de la Ciudad de Nueva York, 2 de abril de 2024.

Los Estados se dirigen a la IA y a las falsificaciones profundas a medida que se avecina la amenaza de interferencia electoral

Este año, más de una docena de estados liderados por republicanos y demócratas han aprobado leyes para regular el uso de deepfakes – contenido falso realista creado con IA – en campañas. Estas leyes llegan en medio de advertencias del Departamento de Seguridad Nacional sobre la capacidad de los deepfakes para engañar a los votantes y mientras persisten dudas sobre si el Congreso puede tomar medidas significativas antes de noviembre.

Florida, Hawái, Nueva York, Idaho, Indiana, Nuevo México, Oregón, Utah, Wisconsin, Alabama, Arizona y Colorado han aprobado leyes este año que exigen revelaciones en anuncios políticos con contenido de deepfakes. Mientras que Michigan, Washington, Minnesota, Texas y California ya tenían leyes que regulan los deepfakes, Minnesota actualizó su ley este año para requerir que un candidato pierda su cargo o nominación si viola las leyes de deepfakes del estado, entre otras disposiciones.

En estados como Nueva York, Nuevo México y Alabama, las víctimas pueden solicitar una orden judicial para detener el contenido.

Los infractores de las leyes relacionadas con deepfakes en Florida, Misisipi, Nuevo México y Alabama pueden recibir tiempo en prisión. Alguien que viole la ley de Misisipi con la intención de disuadir a alguien de votar o de incitar la violencia o el daño corporal puede ser sentenciado a un máximo de cinco años, mientras que la pena en Florida es un delito de primera clase, castigado con hasta un año en prisión.

Romper la ley también podría llevar a multas cuantiosas en algunos estados: en Utah y Wisconsin, los infractores pueden ser multados con hasta $1,000 por violación, y en Oregón y Misisipi, las multas pueden llegar hasta $10,000.

‘Un mundo completamente nuevo’

Aunque actualmente existen pathways para que los candidatos desafíen los anuncios engañosos, es demasiado temprano para saber si las leyes serán suficientes en cuanto a los deepfakes, dijo Amy Beth Cyphert, profesora de derecho en la Universidad de Virginia Occidental. La IA representa un desafío único, dijo Cyphert, debido a la velocidad a la que está evolucionando.

“Cualquiera, incluso con muy poca habilidad tecnológica, podría probablemente crear un deepfake si supiera dónde buscar”, agregó. “Y entonces, realmente tienes un mundo completamente nuevo”.

Para el representante del estado de Arizona, Alexander Kolodin, un republicano que patrocinó una de las nuevas leyes del estado sobre contenido generado por IA, la capacidad de los deepfakes para crear representaciones de voz realistas lo inspiró a presentar una legislación que permite a los candidatos solicitar una orden judicial que declare que el contenido manipulado es un deepfake. Kolodin le dijo a CNN que una orden es “un herramienta poderosa” que puede ayudar a los candidatos a formar una narrativa contraria a los deepfakes que pueden propagarse rápidamente en línea.

“Creo que lo que tenemos que entender es que ha habido mentiras en la política desde que ha habido política, ¿verdad? Esta es una tecnología nueva, pero no es un problema nuevo”, dijo.

Kolodin, quien dice que la IA todavía tiene un lugar en la política, utilizó ChatGPT para redactar una parte del proyecto de ley que describe la “impersonación digital”. La gobernadora demócrata de Arizona, Katie Hobbs, firmó su propuesta en ley en mayo, junto con otra ley de IA que requiere revelaciones en los anuncios de la campaña.

Las grandes empresas tecnológicas ya han tomado algunas medidas para moderar el contenido de deepfakes. TikTok y Meta (la empresa matriz de Instagram, Threads y Facebook) anunciaron planes en los últimos meses para etiquetar el contenido de IA, mientras que YouTube requiere que los creadores revelen cuándo los videos son creados por IA.

La regulación federal rápida está en duda

A pesar del impulso en las legislaturas estatales, “la historia no es optimista en el lado federal”, según Robert Weissman, presidente de Public Citizen, un grupo que ha impulsado la acción estatal y ha seguido el progreso en la legislación que regula los deepfakes en las elecciones.

Aunque se han presentado proyectos de ley en el Congreso que exigirían que los deepfakes se etiqueten claramente, hay pocas señales de que los legisladores actuarán sobre el tema antes de noviembre. Mientras que el líder de la mayoría del Senado, Chuck Schumer, supports the legislation, the minority leader, Sen. Mitch McConnell, has argued that the “well-developed legal regime” that exists to take down deceptive campaign ads can be “easily” applied to deepfakes. In the House, bipartisan legislation has stalled in committee.

En ausencia de acción del Congreso, la tarea recae en agencias como la Comisión Federal de Elecciones y la Comisión Federal de Comunicaciones para tratar de regular la IA en los anuncios de la campaña.

Impulsados por los temores de que los deepfakes puedan defraudar a los votantes, Public Citizen presentó una solicitud a la FEC para actuar el año pasado. La agencia aún no ha emitido una regla para regular el uso de deepfakes generados por IA en los anuncios electorales, y Weissman dijo que su grupo no es optimista.

En un comunicado a CNN, el presidente de la FEC, Sean Cooksey, dijo que espera que el proceso de elaboración de normas de la agencia se complete más tarde este año.

Por su parte, la FCC votó unánimemente anteriormente este año para prohibir el uso de voces generadas por IA en llamadas robóticas y dijo a finales de julio que avanzaría con una propuesta para requerir revelaciones de IA en los anuncios políticos de televisión y radio. No está claro de inmediato si la agencia finalizaría las normas antes de las elecciones. La presidenta de la FCC, Jessica Rosenworcel, tiene la intención de seguir el proceso regulador pero “ha sido clara en que el momento de actuar es ahora”, dijo Jonathan Uriarte, portavoz de Rosenworcel, a CNN.

Mirando hacia noviembre

No todos los proyectos de ley presentados a nivel estatal llegaron al escritorio de los gobernadores después de luchas por su alcance y alcance. Según Public Citizen, se presentaron proyectos de ley relacionados con deepfakes en más de 40 estados de EE. UU. en 2024.

En Georgia, un estado clave que ayudó a decidir el destino de las elecciones presidenciales de 2020, no hay ley que impida que los anuncios políticos que presentan deepfakes se emitan sin una revelación. Aunque hubo apoyo bipartidista para uno en ambas cámaras, finalmente fue archivado en el Senado después de que se aprobara en la Cámara.

La representante estatal Dar’shun Kendrick, una demócrata que forma parte del comité que lideró el proyecto de ley, le dijo a CNN que deseaba que hubiera sido aprobado. Cuando se le preguntó si está preocupada por un estado como Georgia sin una ley antes de las elecciones, dijo que "siempre habrá malos actores".

"Esperemos que, si los vemos, serán rápidamente disipados o eliminados o habrá alguna acción correctiva", agregó Kendrick.

Por ahora, los estados están utilizando otros métodos para protegerse contra los deepfakes dañinos. Los trabajadores de las elecciones en Arizona están siendo capacitados para reconocer los deepfakes como parte de la preparación para las elecciones, y en Nuevo México, el secretario de estado del estado ha lanzado una campaña para educar a los votantes sobre cómo detectarlos.

La campaña liderada por el estado solo puede fortalecer la ley de divulgación de Nuevo México, dijo Alex Curtas, portavoz del secretario de estado de Nuevo México.

"Estas cosas van a tener que trabajar de la mano", dijo.

Los periodistas de CNN Oliver Darcy, Sean Lyngaas, Donie O’Sullivan y Yahya Abou-Ghazala contribuyeron a esta información.

En vista de las preocupaciones planteadas por el Departamento de Seguridad Nacional, los políticos en varios estados como Florida, Hawái, Nueva York y Alabama han promulgado leyes para regular el uso de deepfakes en las campañas políticas. Estas leyes exigen divulgaciones en los anuncios políticos con contenido de deepfake, y los infractores pueden enfrentar multas significativas o incluso tiempo en prisión en algunos estados, como Utah y Wisconsin.

Sin embargo, la evolución rápida de la IA representa un desafío único para detectar y regular los deepfakes. Según Amy Beth Cyphert, profesora de derecho en la Universidad de West Virginia, cualquier persona con conocimientos técnicos mínimos podría potencialmente crear un deepfake. Esto, según ella, significa "un mundo completamente nuevo" en el ámbito de la política y el contenido engañoso.

Lea también:

Comentarios

Más reciente

Jürgen Klopp está cuestionando su futuro como entrenador

Jürgen Klopp está cuestionando su futuro como entrenador

Jürgen Klopp está cuestionando su futuro como entrenador Divertido e irónico: En el congreso de entrenadores en Würzburg, Jürgen Klopp es el entretenedor. No quiere decir mucho sobre el fútbol de Inglaterra en la Eurocopa por miedo a la prensa británica, pero tiene mucho que decir sobre el seleccionador alemán,

Miembros Público