O governo dos Estados Unidos planeia apostar tudo na utilização da IA. Mas falta-lhe um plano, diz um cão de guarda do governo
A falta de uma norma a nível governamental para as aquisições de IA pode comprometer a segurança americana, escreveu o Government Accountability Office (GAO) numa análise há muito aguardada das utilizações actuais e planeadas da IA por quase duas dúzias de agências. O GAO é o principal órgão de controlo da responsabilidade do governo.
O relatório de 96 páginas divulgado na terça-feira marca o esforço mais abrangente do governo dos EUA para catalogar as mais de 200 maneiras pelas quais as agências não militares já usam inteligência artificial ou aprendizado de máquina e as mais de 500 aplicações planejadas para IA em andamento.
Isto acontece numa altura em que os criadores de IA lançam modelos de IA cada vez mais sofisticados e em que os decisores políticos se esforçam por desenvolver regulamentos para a indústria da IA nos casos de utilização mais sensíveis. Os governos de todo o mundo têm realçado os benefícios da IA, como o seu potencial para encontrar curas para doenças ou para aumentar a produtividade. Mas também se preocuparam com os seus riscos, incluindo o perigo de deslocar trabalhadores, espalhar desinformação eleitoral ou prejudicar populações vulneráveis através de preconceitos algorítmicos. Os especialistas alertaram para o facto de a IA poder mesmo conduzir a novas ameaças à segurança nacional, proporcionando aos agentes maliciosos novas formas de desenvolver ciberataques ou armas biológicas.
O amplo inquérito do GAO procurou obter respostas de 23 agências, desde os Departamentos de Justiça e Segurança Interna até à Administração da Segurança Social e à Comissão Reguladora Nuclear. O governo federal já usa a IA de 228 maneiras distintas, com quase metade desses usos lançados no ano passado, de acordo com o relatório, refletindo a rápida aceitação da IA em todo o governo dos EUA.
A grande maioria das utilizações governamentais actuais e planeadas da IA que o GAO identificou no seu relatório, quase sete em cada 10, estão relacionadas com a ciência ou destinam-se a melhorar a gestão interna das agências. A Administração Nacional da Aeronáutica e do Espaço (NASA), por exemplo, disse ao GAO que utiliza a inteligência artificial para monitorizar a atividade dos vulcões em todo o mundo, enquanto o Departamento do Comércio afirmou que utiliza a IA para localizar incêndios florestais e para contar automaticamente as aves marinhas e as focas ou morsas fotografadas por drones.
Mais perto de casa, o Departamento de Segurança Interna afirmou que utiliza a IA para "identificar actividades fronteiriças de interesse", aplicando tecnologias de aprendizagem automática a dados de câmaras e radares, de acordo com o relatório do GAO.
Agências que adoptam a IA
O relatório também destaca as centenas de maneiras pelas quais as agências federais usam a IA em segredo. As agências federais estavam dispostas a divulgar publicamente cerca de 70% do total de 1,241 casos de uso de IA ativos e planejados, disse o relatório, mas se recusaram a identificar mais de 350 aplicações da tecnologia porque eram "consideradas sensíveis".
Algumas agências foram extraordinariamente caladas sobre o uso da IA: o Departamento de Estado listou 71 casos de uso diferentes para a tecnologia, mas disse ao GAO que só poderia identificar 10 deles publicamente.
Embora algumas agências tenham relatado relativamente poucos usos para IA, esses poucos aplicativos atraíram alguns dos maiores escrutínios de vigilantes do governo, grupos de liberdades civis e especialistas em IA, alertando para resultados de IA potencialmente prejudiciais.
Por exemplo, os Departamentos de Justiça e Segurança Interna relataram um total de 25 casos de uso atuais ou planejados para IA no relatório de terça-feira do GAO, uma pequena fração dos 390 da NASA ou dos 285 do Departamento de Comércio. Mas esse pequeno número desmente o quão sensíveis podem ser os casos de uso do DOJ e do DHS.
Recentemente, em setembro, o GAO alertou que as agências federais de aplicação da lei executaram milhares de pesquisas de reconhecimento facial movidas a IA - totalizando 95% dessas pesquisas em seis agências dos EUA de 2019 a 2022 - sem ter requisitos de treinamento adequados para os funcionários que realizam as pesquisas, destacando o potencial para o uso indevido de IA. Os especialistas em privacidade e segurança têm alertado regularmente para o facto de que confiar demasiado na IA no policiamento pode levar a casos de identidade errada e detenções indevidas, ou discriminação contra minorias.
(O relatório de setembro do GAO sobre o reconhecimento facial coincidiu com um relatório do inspetor-geral do DHS que concluiu que várias agências, incluindo as Alfândegas e a Patrulha de Fronteiras, os Serviços Secretos dos EUA e o Serviço de Imigração e Alfândegas, provavelmente infringiram a lei quando compraram o historial de geolocalização dos americanos a corretores de dados comerciais sem efectuarem as avaliações de impacto na privacidade exigidas).
Embora os funcionários estejam a recorrer cada vez mais à IA e à análise automatizada de dados para resolver problemas importantes, o Gabinete de Gestão e Orçamento, que é responsável pela harmonização da abordagem das agências federais a uma série de questões, incluindo a aquisição de IA, ainda não finalizou um projeto de memorando que defina como as agências devem adquirir e utilizar corretamente a IA.
"A falta de orientação contribuiu para que as agências não implementassem totalmente as práticas fundamentais no gerenciamento de IA", escreveu o GAO. Ele acrescentou: "Até que o OMB emita a orientação necessária, as agências federais provavelmente desenvolverão políticas inconsistentes sobre o uso de IA, que não se alinharão com as práticas-chave ou serão benéficas para o bem-estar e a segurança do público americano".
De acordo com uma lei federal de 2020 que trata da IA no governo, o OMB deveria ter emitido um projeto de diretrizes para as agências até setembro de 2021, mas perdeu o prazo e só emitiu seu projeto de memorando dois anos depois, em novembro de 2023, de acordo com o relatório.
O OMB disse que concordou com a recomendação do cão de guarda de emitir orientações sobre IA e disse que o projeto de orientação lançado em novembro foi uma resposta à ordem executiva de outubro do presidente Joe Biden que trata da segurança da IA.
A abordagem da IA de Biden
Entre suas disposições, a recente ordem executiva de IA de Biden exige que os desenvolvedores dos "sistemas de IA mais poderosos" compartilhem os resultados dos testes de seus modelos com o governo, de acordo com um resumo da diretiva da Casa Branca. Este ano, várias empresas líderes de IA também prometeram à administração Biden que procurariam testes externos de seus modelos de IA antes de divulgá-los ao público.
A ordem executiva Biden adiciona ao crescente conjunto de requisitos para agências federais quando se trata de políticas de IA, por exemplo, encarregando o Departamento de Energia de avaliar o potencial da IA para exacerbar ameaças envolvendo armas químicas, biológicas, radiológicas ou nucleares.
O relatório do GAO de terça-feira identificou uma lista abrangente de requisitos relacionados à IA que o Congresso ou a Casa Branca impôs às agências federais desde 2019 e classificou seu desempenho. Além de culpar o OMB por não ter apresentado um plano de compras de IA em todo o governo, o relatório encontrou deficiências em algumas abordagens de outras agências para a IA. Em setembro, por exemplo, o Escritório de Gestão de Pessoal ainda não havia preparado uma previsão necessária do número de funções relacionadas à IA que o governo federal pode precisar preencher nos próximos cinco anos. E, segundo o relatório, 10 agências federais, desde o Departamento do Tesouro até o Departamento de Educação, não tinham planos necessários para atualizar suas listas de casos de uso de IA ao longo do tempo, o que poderia dificultar a compreensão do público sobre como o governo dos EUA usa IA.
Leia também:
- A Telefónica pretende lançar no mercado a telefonia por holograma
- vzbv: As empresas de Internet continuam a fazer batota apesar da proibição
- A Telefónica prevê o lançamento no mercado da telefonia por holograma em 2026
- Quase nenhuma melhoria no equilíbrio ecológico dos sistemas informáticos do governo federal
Fonte: edition.cnn.com