Las empresas de IA se resisten a la transparencia sobre sus recursos de aprendizaje
AI Desarrolloras mostrarán los Datos de Entrenamiento para la IA en el Futuro según la UE's "Ley de IA", pero muchas Empresas no están Disposadas
En el futuro, los Desarrolloras de IA serán obligados a revelar los datos que utilizan para capacitar su Inteligencia Artificial, según la UE's "Ley de IA". La Comisión Europea tiene el objetivo de proteger los derechos de los artistas, pero muchas empresas se niegan a cumplir.
Matthieu Riouf, CEO de Photoroom, una empresa de software que ofrece edición de imágenes apoyada por IA, compara la secrecy alrededor de los datos de IA a una receta secreta de un cocinero. "Es como la cocina," dice. "Hay una parte de la receta que los mejores cocineros no revelan: el 'je ne sais quoi', lo que la hace diferente."
La "Ley de IA Europea" obliga a los Desarrolloras de IA a que sus datos de entrenamiento sean accesibles para la verificación externa. La ley también requiere a los desarrolladores de proporcionar un resumen detallado de los datos utilizados para el entrenamiento. Sin embargo, los detalles de estos informes siguen sin claridad.
La Oficina Europea de IA planea liberar guías para estos informes a principios de 2025 después de discusiones con partes interesadas. Las empresas se resisten a este movimiento, argumentando que los competidores podrían obtener una ventaja. La Comisión Europea reconoce la necesidad de que los Desarrolloras de IA mantengan la confidencialidad comercial, pero esta ley también permite a los proveedores de contenido llevar a cabo acciones legales contra las empresas que usan su trabajo sin permiso.
Basándose en Granos Datos
Desde la lanzamiento de ChatGPT hace aproximadamente un año y medio, la IA Generativa ha hecho las noticias. Estos programas pueden generar textos, imágenes o archivos de audio basados en instrucciones mínimas. Dependían de bases datos vastas, que son probablemente que contengan contenido de Internet.
Los Desarrolloras de IA han enfrentado demandas de autores, músicos o cineastas por infracción de derechos de autor, ya que su trabajo fue utilizado sin permiso para el entrenamiento de IA. También se han levantado preocupaciones sobre Meta utilizando contenido y datos personales de Facebook y Instagram para este propósito.
OpenAI retiró la salida de texto para la última variante de ChatGPT después de que Scarlett Johansson se quejara de que la voz "Sky" sonaba demasiado similar a la suya. Ella había rechazado previamente una oferta de la compañía para prestar su voz a "Sky".
OpenAI también recibió críticas por la negativa de su CEO Mira Murati confirmar en una entrevista de periódico si la nueva IA de video "Sora" fue entrenada utilizando videos de YouTube. YouTube afirma que esto violaría sus términos de negocio.
Innovación Antes de la Regulación
Para prevencionar más demandas judiciales de derechos de autor y aliviar la creciente presión política, varias empresas tecnológicas han firmado acuerdos de licencia con editores, sellos discográficos, plataformas en línea y emisoras de televisión recientemente. Sin embargo, estos compromisos autogestionados no fueron suficientes, según el parlamentario europeo Dragos Tudorache, quien desempeñó un papel significativo en la "Ley de IA".
Los informes de transparencia sirven como instrumentos de control obligatorios, dice Tudorache. "Deben ser lo suficientemente detallados para que Scarlett Johansson, Beyoncé o cualquiera sepa si su trabajo, sus canciones, su voz, su arte o su ciencia fueron utilizados en el entrenamiento del algoritmo."
El gobierno francés advierte contra la regulación excesiva, temiendo que Europa pierda el contacto con la tecnología de IA futura-prueba. "Europea debe finalmente entender que se debe crear innovaciones antes de regularlas," dijo el Ministro de Finanzas francés Bruno Le Maire en la Conferencia de Tecnología Viva en Mayo en París. "De lo contrario, hay riesgo de regularlas tecnologías que no dominamos o de mal reglamentarlas porque no las dominamos."