Le gouvernement américain prévoit de se lancer à corps perdu dans l'utilisation de l'IA. Mais il n'a pas de plan, déclare un organisme de surveillance gouvernemental.
L'absence d'une norme gouvernementale sur les achats d'IA pourrait compromettre la sécurité des États-Unis, a écrit le Government Accountability Office (GAO) dans un examen très attendu de l'utilisation actuelle et prévue de l'IA par près de deux douzaines d'agences. Le GAO est le principal organisme de surveillance du gouvernement en matière de responsabilité.
Le rapport de 96 pages publié mardi constitue l'effort le plus complet du gouvernement américain pour répertorier les plus de 200 façons dont les agences non militaires utilisent déjà l'intelligence artificielle ou l'apprentissage automatique, ainsi que les plus de 500 applications de l'IA en cours de préparation.
Cette initiative intervient alors que les développeurs d'IA ont mis au point des modèles d'IA de plus en plus sophistiqués et que les décideurs politiques s'efforcent d'élaborer des réglementations pour l'industrie de l'IA dans les cas d'utilisation les plus sensibles. Les gouvernements du monde entier ont mis l'accent sur les avantages de l'IA, tels que sa capacité à trouver des remèdes aux maladies ou à améliorer la productivité. Mais ils se sont également inquiétés des risques qu'elle comporte, notamment le danger de déplacer des travailleurs, de répandre des informations erronées sur les élections ou de nuire à des populations vulnérables en raison de biais algorithmiques. L'IA pourrait même engendrer de nouvelles menaces pour la sécurité nationale, ont averti des experts, en donnant à des acteurs malveillants de nouveaux moyens de développer des cyberattaques ou des armes biologiques.
La vaste enquête du GAO a permis de recueillir les réponses de 23 agences, allant des ministères de la justice et de la sécurité intérieure à l'administration de la sécurité sociale et à la commission de réglementation nucléaire. Selon le rapport, le gouvernement fédéral utilise déjà l'IA de 228 manières différentes, dont près de la moitié ont été lancées au cours de l'année écoulée, ce qui témoigne de l'adoption rapide de l'IA au sein du gouvernement américain.
La grande majorité des utilisations actuelles et prévues de l'IA par le gouvernement que le GAO a identifiées dans son rapport, soit près de sept sur dix, sont soit liées à la science, soit destinées à améliorer la gestion interne des agences. La National Aeronautics and Space Administration (NASA), par exemple, a déclaré au GAO qu'elle utilisait l'intelligence artificielle pour surveiller l'activité des volcans dans le monde, tandis que le ministère du commerce a indiqué qu'il utilisait l'IA pour suivre les incendies de forêt et pour compter automatiquement les oiseaux de mer, les phoques et les morses figurant sur les photos prises par des drones.
Plus près de nous, le ministère de la sécurité intérieure a déclaré utiliser l'IA pour "identifier les activités frontalières dignes d'intérêt" en appliquant des technologies d'apprentissage automatique aux données des caméras et des radars, selon le rapport du GAO.
Les agences adoptent l'IA
Le rapport met également en évidence les centaines de façons dont les agences fédérales utilisent l'IA en secret. Selon le rapport, les agences fédérales ont accepté de divulguer publiquement environ 70 % des 1 241 cas d'utilisation de l'IA actifs et planifiés, mais ont refusé d'identifier plus de 350 applications de la technologie parce qu'elles étaient "considérées comme sensibles".
Certaines agences se sont montrées extraordinairement discrètes sur leur utilisation de l'IA : le département d'État a énuméré 71 cas d'utilisation différents de la technologie, mais a déclaré au GAO qu'il ne pouvait en identifier que 10 publiquement.
Bien que certaines agences aient signalé relativement peu d'utilisations de l'IA, ces quelques applications ont fait l'objet de la plus grande attention de la part des organismes de surveillance gouvernementaux, des groupes de défense des libertés civiles et des experts en IA qui ont mis en garde contre les effets potentiellement néfastes de l'IA.
Par exemple, les ministères de la justice et de la sécurité intérieure ont fait état d'un total de 25 cas d'utilisation actuels ou prévus de l'IA dans le rapport du GAO publié mardi, soit une infime partie des 390 cas de la NASA ou des 285 cas du ministère du commerce. Mais ce petit nombre dément le caractère sensible des cas d'utilisation du DOJ et du DHS.
Pas plus tard qu'en septembre, le GAO a averti que les organismes fédéraux chargés de l'application de la loi avaient effectué des milliers de recherches par reconnaissance faciale au moyen de l'IA - soit 95 % de ces recherches dans six organismes américains entre 2019 et 2022 - sans que les agents chargés de ces recherches aient reçu une formation appropriée, ce qui met en évidence le risque d'utilisation abusive de l'IA. Les experts en matière de sécurité et de protection de la vie privée ont régulièrement mis en garde contre une utilisation trop importante de l'IA dans les services de police, qui pourrait entraîner des erreurs d'identité, des arrestations injustifiées ou des discriminations à l'encontre des minorités.
(Le rapport de septembre du GAO sur la reconnaissance faciale a coïncidé avec un rapport de l'inspecteur général du DHS constatant que plusieurs agences, dont la Customs and Border Patrol, l'US Secret Service et l'Immigration and Customs Enforcement, ont probablement enfreint la loi lorsque des fonctionnaires ont acheté des historiques de géolocalisation d'Américains à des courtiers en données commerciales sans procéder aux évaluations requises de l'incidence sur la protection de la vie privée).
Alors que les fonctionnaires se tournent de plus en plus vers l'IA et l'analyse automatisée des données pour résoudre des problèmes importants, l'Office of Management and Budget, qui est chargé d'harmoniser l'approche des agences fédérales sur toute une série de questions, y compris l'acquisition de l'IA, n'a pas encore finalisé un projet de note décrivant la manière dont les agences devraient acquérir et utiliser l'IA de manière appropriée.
"Le manque d'orientations a contribué à ce que les agences ne mettent pas pleinement en œuvre les pratiques fondamentales de gestion de l'IA", écrit le GAO. Il ajoute : "Tant que l'OMB n'aura pas publié les orientations requises, les agences fédérales élaboreront probablement des politiques incohérentes sur leur utilisation de l'IA, qui ne s'aligneront pas sur les pratiques clés ou ne seront pas bénéfiques pour le bien-être et la sécurité de la population américaine".
En vertu d'une loi fédérale de 2020 traitant de l'IA dans le gouvernement, l'OMB aurait dû publier un projet de lignes directrices pour les agences avant septembre 2021, mais n'a pas respecté le délai et n'a publié son projet de mémo que deux ans plus tard, en novembre 2023, selon le rapport.
L'OMB a déclaré qu'il était d'accord avec la recommandation de l'organisme de surveillance de publier des directives sur l'IA et a déclaré que le projet de directives qu'il a publié en novembre était une réponse au décret d'octobre du président Joe Biden traitant de la sécurité de l'IA.
L'approche de M. Biden en matière d'IA
Parmi ses dispositions, le récent décret de Joe Biden sur l'IA exige des développeurs des "systèmes d'IA les plus puissants" qu'ils partagent les résultats des tests de leurs modèles avec le gouvernement, selon un résumé de la directive publié par la Maison-Blanche. Cette année, un certain nombre de grandes entreprises spécialisées dans l'IA ont également promis à l'administration Biden de faire tester leurs modèles d'IA par des tiers avant de les rendre publics.
Le décret de M. Biden vient s'ajouter à la série croissante d'exigences imposées aux agences fédérales en matière de politiques d'IA, en chargeant par exemple le ministère de l'énergie d'évaluer le potentiel de l'IA à exacerber les menaces liées aux armes chimiques, biologiques, radiologiques ou nucléaires.
Le rapport du GAO publié mardi dresse une liste exhaustive des exigences liées à l'IA que le Congrès ou la Maison-Blanche ont imposées aux agences fédérales depuis 2019 et évalue leur performance. En plus de reprocher à l'OMB de ne pas proposer de plan gouvernemental pour les achats d'IA, le rapport a trouvé des lacunes dans les approches d'une poignée d'autres agences en matière d'IA. En septembre, par exemple, l'Office of Personnel Management n'avait pas encore établi les prévisions nécessaires concernant le nombre de postes liés à l'IA que le gouvernement fédéral pourrait avoir à pourvoir au cours des cinq prochaines années. Par ailleurs, le rapport indique que dix agences fédérales, allant du département du Trésor au département de l'éducation, ne disposaient pas des plans requis pour mettre à jour leurs listes de cas d'utilisation de l'IA au fil du temps, ce qui pourrait empêcher le public de comprendre comment le gouvernement des États-Unis utilise l'IA.
Lire aussi:
- Telefónica vise le lancement commercial de la téléphonie par hologramme
- vzbv : Les groupes Internet continuent à tricher malgré l'interdiction
- Telefónica vise un lancement commercial de la téléphonie par hologramme en 2026
- L'écobilan des systèmes informatiques de la Confédération ne s'est guère amélioré
Source: edition.cnn.com