- Nuova legge UE sull'IA in vigore - cosa cambia?
È entrato in vigore l'atto dell'Unione Europea sull'Intelligenza Artificiale (AI). Gli Stati membri hanno ora due anni per integrare le sue disposizioni nel diritto nazionale. L'atto mira a regolare l'IA in modo più netto e uniforme all'interno dell'Unione Europea, proteggendo meglio i diritti fondamentali, la democrazia e lo stato di diritto di fronte a questa tecnologia. Cosa significa l'atto:
Cos'è l'Intelligenza Artificiale comunque?
L'Intelligenza Artificiale si riferisce tipicamente a applicazioni basate sull'apprendimento automatico, in cui il software setaccia grandi quantità di dati per trovare schemi e trarre conclusioni. Ciò può imitare le capacità umane come il pensiero logico, l'apprendimento, la pianificazione e la creatività, consentendo alle macchine di percepire e reagire all'ambiente circostante.
L'IA viene già utilizzata in molti settori. Ad esempio, tali programmi possono analizzare le scansioni della tomografia computerizzata più velocemente e accuratamente dei umani. Le auto a guida autonoma cercano di prevedere il comportamento degli altri utenti della strada. E i chatbot o le playlist automatiche dei servizi di streaming funzionano con l'IA.
Perché l'UE ha bisogno di una legge del genere?
La legge mira a rendere l'uso dell'IA nell'Unione Europea più sicuro. Cerca di garantire che i sistemi IA siano il più possibile trasparenti, tracciabili, non discriminatori e rispettosi dell'ambiente. Un aspetto chiave è che i sistemi IA siano supervisionati dagli esseri umani, non solo da altre tecnologie.
Quali regole contiene la legge?
Le regolamentazioni suddividono le applicazioni IA in diversi gruppi di rischio. I sistemi considerati ad alto rischio, come quelli utilizzati in infrastrutture critiche o nell'istruzione e nella sanità, devono rispettare rigorosi requisiti. Le applicazioni a basso rischio hanno meno obbligazioni.
Sono proibite le applicazioni IA che violano i valori dell'UE. Ciò include l'analisi del comportamento sociale ("Scoring sociale"), come fatto in Cina per categorizzare i cittadini in base al loro comportamento.
Cosa significa per i consumatori?
La legge mira a proteggere meglio i consumatori dalle applicazioni IA rischiose. La riconoscimento facciale negli spazi pubblici, come attraverso la videosorveglianza nei luoghi pubblici, è generalmente proibito. La rilevazione delle emozioni sul luogo di lavoro e nelle istituzioni educative è anch'essa proibita nell'UE.
Inoltre, le applicazioni IA devono essere etichettate in modo più trasparente. I consumatori possono quindi identificare più facilmente dove viene utilizzata l'Intelligenza Artificiale. Gli individui privati che scoprono violazioni delle regolamentazioni possono presentare reclami alle autorità nazionali.
Cosa cambia esattamente dal 1° agosto?
Inizialmente, non molto. L'atto sull'IA verrà implementato gradualmente. Alcune disposizioni, come il divieto dei sistemi IA che presentano "rischi inaccettabili", devono essere implementate prontamente dagli Stati membri. Questi sono sistemi considerati una minaccia per gli esseri umani e il loro divieto entrerà in vigore dopo sei mesi.
Un codice di condotta per i fornitori di modelli IA dovrebbe essere finalizzato entro aprile dell'anno prossimo, come annunciato dalla Commissione UE prima che l'atto entrasse in vigore.
Dopo due anni, la maggior parte dei punti della legge deve essere completamente implementata. Tuttavia, i sistemi ad alto rischio avranno più tempo per rispettare i requisiti, con le loro obbligazioni che entreranno in vigore dopo tre anni.
Cosa accade se qualcuno non rispetta le regole?
In caso di violazioni, si applicano severe multe: ad esempio, l'uso della tecnologia proibita può comportare multe fino a €35 milioni o, per le società, fino al 7% del loro fatturato globale annuo dell'esercizio finanziario precedente. Tuttavia, l'importo esatto della multa deve essere determinato all'interno di questo range dai paesi, come annunciato dalla Commissione.
Per altre violazioni legali, le multe possono raggiungere €15 milioni o, per le società, fino al 3% del loro fatturato globale annuo dell'esercizio finanziario precedente.
C'è critica alla legge?
Gli esperti hanno ripetutamente dibattuto se l'IA riceverà un boost o se il suo sviluppo potrebbe addirittura essere ostacolato dalla legge. Alla fine, questo dipenderà probabilmente dall'implementazione nazionale. Il deputato del Bundestag dei Verdi Tobias Bacherle ha chiesto una regolamentazione della sorveglianza biometrica supportata dall'IA in Germania, avvertendo che potrebbe essere facilmente utilizzata per sottomettere i diritti delle libertà se finisse nelle mani sbagliate.
Il ministro federale digitale Volker Wissing ritiene che alcune delle disposizioni della legge dell'UE vadano troppo oltre. "Avrei auspicato una regolamentazione più favorevole all'innovazione", ha detto il politico del FDP all'agenzia di stampa tedesca. "Ma alla fine, un compromesso è meglio di nessuna regolamentazione affatto". Ora, la Germania mira a un'implementazione "burocrazia-lite".
In precedenza, è stato criticato che molte disposizioni potrebbero diventare rapidamente obsolete a causa dello sviluppo tecnologico rapido delle applicazioni IA e l'implementazione graduale delle regolamentazioni. La Commissione ha annunciato che condurrà una revisione annuale per determinare se l'elenco delle "applicazioni ad alto rischio" deve essere rivisto o ampliato.