Il governo degli Stati Uniti intende puntare tutto sull'utilizzo dell'intelligenza artificiale. Ma manca un piano, dice un ente di controllo governativo
La mancanza di uno standard governativo sugli acquisti di IA potrebbe compromettere la sicurezza degli Stati Uniti, ha scritto il Government Accountability Office (GAO) in un'attesa revisione degli usi attuali e pianificati dell'IA da parte di quasi due dozzine di agenzie. Il GAO è il principale organo di controllo del governo in materia di responsabilità.
Il rapporto di 96 pagine pubblicato martedì segna lo sforzo più completo del governo degli Stati Uniti per catalogare gli oltre 200 modi in cui le agenzie non militari utilizzano già l'intelligenza artificiale o l'apprendimento automatico e le oltre 500 applicazioni previste per l'IA.
Il documento arriva mentre gli sviluppatori di IA hanno rilasciato modelli di IA sempre più sofisticati e mentre i politici si affannano a sviluppare regolamenti per l'industria dell'IA nei casi d'uso più sensibili. I governi di tutto il mondo hanno sottolineato i vantaggi dell'IA, come il suo potenziale nel trovare cure per le malattie o nel migliorare la produttività. Ma si sono anche preoccupati dei suoi rischi, tra cui il pericolo di dislocare lavoratori, diffondere disinformazione elettorale o danneggiare popolazioni vulnerabili attraverso pregiudizi algoritmici. Gli esperti hanno avvertito che l'IA potrebbe persino portare a nuove minacce per la sicurezza nazionale, offrendo ad attori malintenzionati nuovi modi per sviluppare attacchi informatici o armi biologiche.
L'ampia indagine del GAO ha richiesto le risposte di 23 agenzie, dai dipartimenti di Giustizia e Sicurezza interna all'Amministrazione della sicurezza sociale e alla Commissione di regolamentazione nucleare. Secondo il rapporto, il governo federale utilizza già l'IA in 228 modi diversi, di cui quasi la metà è stata avviata nell'ultimo anno, a testimonianza della rapida diffusione dell'IA nel governo degli Stati Uniti.
La stragrande maggioranza degli utilizzi attuali e pianificati dell'IA identificati dal GAO nel suo rapporto, quasi sette su dieci, sono legati alla scienza o destinati a migliorare la gestione interna dell'agenzia. La National Aeronautics and Space Administration (NASA), ad esempio, ha dichiarato al GAO di utilizzare l'intelligenza artificiale per monitorare l'attività dei vulcani in tutto il mondo, mentre il Dipartimento del Commercio ha affermato di utilizzare l'IA per monitorare gli incendi selvaggi e per contare automaticamente gli uccelli marini e le foche o i trichechi ritratti nelle foto dei droni.
Più vicino a noi, il Dipartimento per la Sicurezza Nazionale ha dichiarato di utilizzare l'IA per "identificare le attività di confine di interesse" applicando tecnologie di apprendimento automatico ai dati di telecamere e radar, secondo il rapporto del GAO.
Agenzie che adottano l'IA
Il rapporto evidenzia anche le centinaia di modi in cui le agenzie federali utilizzano l'IA in segreto. Le agenzie federali sono state disposte a rivelare pubblicamente circa il 70% dei 1.241 casi di utilizzo dell'IA attivi e pianificati, secondo il rapporto, ma hanno rifiutato di identificare più di 350 applicazioni della tecnologia perché "considerate sensibili".
Alcune agenzie hanno mantenuto un riserbo straordinario sull'uso dell'IA: il Dipartimento di Stato ha elencato 71 diversi casi d'uso della tecnologia, ma ha dichiarato al GAO di poterne identificare solo 10 pubblicamente.
Sebbene alcune agenzie abbiano riferito un numero relativamente basso di utilizzi dell'IA, quelle poche applicazioni hanno attirato il maggior numero di controlli da parte di organismi di vigilanza governativi, gruppi per la tutela delle libertà civili ed esperti di IA che hanno messo in guardia da risultati potenzialmente dannosi dell'IA.
Ad esempio, i dipartimenti della Giustizia e della Sicurezza interna hanno riportato un totale di 25 casi di utilizzo dell'IA, attuali o pianificati, nel rapporto del GAO di martedì, una piccola frazione dei 390 della NASA o dei 285 del Dipartimento del Commercio. Ma questo piccolo numero smentisce quanto possano essere delicati i casi d'uso del DOJ e del DHS.
Recentemente, a settembre, il GAO ha avvertito che le agenzie federali preposte all'applicazione della legge hanno eseguito migliaia di ricerche di riconoscimento facciale basate sull'IA - pari al 95% di tali ricerche in sei agenzie statunitensi tra il 2019 e il 2022 - senza disporre di requisiti di formazione adeguati per i funzionari che eseguono le ricerche, evidenziando il potenziale uso improprio dell'IA. Gli esperti di privacy e sicurezza hanno sempre messo in guardia sul fatto che un ricorso troppo massiccio all'IA nelle attività di polizia può portare a casi di identità errata e arresti sbagliati, o alla discriminazione delle minoranze.
(Il rapporto del GAO di settembre sul riconoscimento facciale ha coinciso con un rapporto dell'ispettore generale del DHS che ha rilevato che diverse agenzie, tra cui la Customs and Border Patrol, gli US Secret Service e l'Immigration and Customs Enforcement, hanno probabilmente infranto la legge quando i funzionari hanno acquistato le cronologie di geolocalizzazione degli americani da broker di dati commerciali senza eseguire le necessarie valutazioni di impatto sulla privacy).
Mentre i funzionari si rivolgono sempre più spesso all'IA e all'analisi automatizzata dei dati per risolvere problemi importanti, l'Office of Management and Budget, responsabile dell'armonizzazione dell'approccio delle agenzie federali a una serie di questioni, tra cui l'approvvigionamento dell'IA, deve ancora finalizzare una bozza di nota che delinei le modalità con cui le agenzie dovrebbero acquisire e utilizzare correttamente l'IA.
"La mancanza di linee guida ha contribuito a far sì che le agenzie non attuassero pienamente le pratiche fondamentali nella gestione dell'IA", ha scritto il GAO. E ha aggiunto: "Finché l'OMB non pubblicherà le linee guida richieste, le agenzie federali probabilmente svilupperanno politiche incoerenti sull'uso dell'IA, che non saranno in linea con le pratiche fondamentali e non saranno utili per il benessere e la sicurezza del pubblico americano".
In base a una legge federale del 2020 sull'IA nel governo, l'OMB avrebbe dovuto emettere una bozza di linee guida per le agenzie entro settembre 2021, ma non ha rispettato la scadenza e ha emesso la bozza di nota solo due anni dopo, nel novembre 2023, secondo il rapporto.
L'OMB ha dichiarato di essere d'accordo con la raccomandazione del watchdog di emanare una guida sull'IA e ha affermato che la bozza di guida rilasciata a novembre era una risposta all'ordine esecutivo di ottobre del presidente Joe Biden sulla sicurezza dell'IA.
L'approccio di Biden all'IA
Tra le sue disposizioni, il recente ordine esecutivo di Biden sull'IA richiede agli sviluppatori dei "sistemi di IA più potenti" di condividere i risultati dei test dei loro modelli con il governo, secondo una sintesi della direttiva della Casa Bianca. Quest'anno, inoltre, alcune aziende leader nel settore dell'IA hanno promesso all'amministrazione Biden che avrebbero richiesto test esterni dei loro modelli di IA prima di renderli pubblici.
L'ordine esecutivo di Biden si aggiunge alla crescente serie di requisiti per le agenzie federali quando si tratta di politiche sull'IA, ad esempio incaricando il Dipartimento dell'Energia di valutare il potenziale dell'IA di esacerbare le minacce che coinvolgono armi chimiche, biologiche, radiologiche o nucleari.
Il rapporto del GAO di martedì ha identificato un elenco completo di requisiti relativi all'IA che il Congresso o la Casa Bianca hanno imposto alle agenzie federali dal 2019 e ha valutato le loro prestazioni. Oltre a criticare l'OMB per non aver elaborato un piano governativo per gli acquisti di IA, il rapporto ha riscontrato carenze nell'approccio all'IA di alcune altre agenzie. A settembre, ad esempio, l'Office of Personnel Management non aveva ancora preparato la previsione richiesta del numero di ruoli legati all'IA che il governo federale potrebbe dover ricoprire nei prossimi cinque anni. Inoltre, secondo il rapporto, 10 agenzie federali, dal Dipartimento del Tesoro al Dipartimento dell'Istruzione, non hanno predisposto piani di aggiornamento dei loro elenchi di casi d'uso dell'IA nel tempo, il che potrebbe ostacolare la comprensione da parte del pubblico dell'uso dell'IA da parte del governo statunitense.
Leggi anche:
- Telefónica punta al lancio sul mercato della telefonia con ologrammi
- vzbv: Le aziende di Internet continuano a imbrogliare nonostante il divieto
- Telefónica punta al lancio sul mercato della telefonia con ologrammi nel 2026
- Miglioramento minimo dell'ecobilancio dei sistemi informatici del governo federale
Fonte: edition.cnn.com