Le aziende di IA resistono alla trasparenza sulle loro risorse di apprendimento
AI Sviluppatori faranno Rivelare i Dati di Formazione per l'AI a Futuro in Base all' "Act AI EU", ma Molte Aziende Non Sono Disposte
Nell' futuro, gli sviluppatori di AI saranno costretti a rendere noti i dati che utilizzano per la formazione della loro Intelligenza Artificiale, in base all' "Act AI EU" della UE. La Commissione Europea ha l'obiettivo di tutelare i diritti degli artisti, ma molte aziende non sono disposte a collaborare.
Matthieu Riouf, CEO di Photoroom, una società di software offrendo l'aiuto AI per la correzione d'immagini, paragona il segreto sui dati AI a una ricetta segreta di un cuoco. "È come la cucina," dice lui. "C'è una parte della ricetta che i migliori cuochi non rivelano: il 'je ne sais quoi', che la rende differente."
L' "Act AI EU" europeo obbliga gli sviluppatori di AI a rendere accessibili i loro dati di formazione per la verifica esterna. La legge richiede inoltre che gli sviluppatori forniscano un resoconto dettagliato dei dati utilizzati per la formazione. Tuttavia, i particolari di questi rapporti rimangono incerti.
L'Ufficio europeo AI prevede di rilasciare linee guida per questi rapporti a prima del 2025 dopo discussioni con le parti interessate. Le aziende si oppossono a questo passo, affermando che i concorrenti potrebbero trarre vantaggio. La Commissione Europea riconosce la necessità per gli sviluppatori di AI di mantenere il segreto delle loro imprese, ma questa legge consente ai fornitori di contenuti di intraprendere azioni legali contro le aziende che utilizzano il loro lavoro senza permesso.
Dipendenti da Grandi Database
Da oltre un anno e mezzo fa il lancio di ChatGPT, l'AI Generativa ha fatto capolino nelle testate. Questi programmi possono generare testo, immagini o file audio basandosi su istruzioni minime. Riducono a grandi database, che sono probabilmente contenenti contenuti dall'internet.
Gli sviluppatori di AI hanno affrontato denunce di autori, musicisti, o filmmaker per violazione di diritti d'autore, poiché il loro lavoro è stato utilizzato senza permesso per l'addestramento dell'AI. Sono state anche sollevate preoccupazioni riguardo a Meta che utilizza contenuto e dati personali da Facebook e Instagram per questo scopo.
OpenAI ha ritirato l'output di parlato per la variante più recente di ChatGPT a causa della reazione dell'attrice Scarlett Johansson, la quale aveva rifiutato un'offerta della società per prestare la sua voce a "Sky".
OpenAI è anche stato criticato per la riluttanza della sua CEO Mira Murati a confermare in un'intervista di giornale se la nuova AI video "Sora" era stata addestrata utilizzando video YouTube. YouTube afferma che ciò violerebbe i termini d'affari della loro azienda.
Innovazione Prima della Regolamentazione
Per prevenire ulteriori denunce di diritti d'autore e alleggerire la crescente pressione politica, alcune aziende tecnologiche hanno intrapreso accordi di licenziazione con editori, etichette discografiche, piattaforme online e emittenti televisive negli ultimi mesi. Tuttavia, questi impegni autonomi non sono stati sufficienti, secondo l'eurodeputato Dragos Tudorache, che ha svolto un ruolo significativo nell' "Act AI EU".
I rapporti di trasparenza servono da strumenti controllo obbligatorio, dice Tudorache. "Devono essere sufficientemente dettagliati per far sapere Scarlett Johansson, Beyoncé, o chiunque altro se il loro lavoro, le loro canzoni, la loro voce, l'arte o le loro scienze sono stati usati nell'addestramento dell'algoritmo."
Il governo francese avverte contro la regolamentazione eccessiva, temendo che l'Europa possa perdere il contatto con la tecnologia AI futurista. "L'Europa deve finalmente capire che si deve creare innovazioni prima di regolamentarle," ha detto il ministro delle Finanze francese Bruno Le Maire al Viva Technology Conference a maggio a Parigi. "Altrimenti, c'è il rischio di regolamentare tecnologie che non mastermiziamo, o regolamentarle male perché non mastermiziamo."