Le président de Microsoft doute qu'AGI devienne autonome dans les douze prochains mois
Selon Microsoft, une "superintelligence" artificielle agissant de manière autonome est encore loin d'être une réalité. "Il est absolument improbable que nous voyions dans les douze prochains mois ce que l'on appelle une AGI, dans laquelle les ordinateurs sont plus performants que les humains", a déclaré jeudi Brad Smith, président du groupe de logiciels. "Cela prendra encore des années, voire des décennies". Il a toutefois ajouté qu'il fallait d'ores et déjà réfléchir à la sécurité de cette technologie.
AGI signifie "Artificial General Intelligence" ("intelligence générale artificielle"). Contrairement aux IA actuelles comme ChatGPT de la société OpenAI à laquelle participe Microsoft, ces programmes peuvent également effectuer des tâches complexes sans intervention humaine. Les critiques craignent qu'une AGI puisse déclencher des guerres ou développer et mettre en circulation des virus mortels pour l'homme.
Le débat sur la date de la "singularité technologique", à partir de laquelle l'intelligence artificielle dépassera l'intelligence humaine, avait été relancé par les remous provoqués par l'éviction de courte durée du chef d'OpenAI Sam Altman. Il est possible que des querelles dans la gestion d'une percée dans la recherche en IA aient joué un rôle dans l'affaire. Selon des initiés, les développeurs du projet "Q*" (prononcé : Q-Star) avaient mis en garde le conseil d'administration d'OpenAI contre les conséquences potentiellement dangereuses pour l'humanité d'une publication précipitée du programme. Du point de vue du président de Microsoft Smith, le thème de la superintelligence n'a pas joué de rôle dans l'éviction d'Altman. Il y a certes eu des divergences d'opinion avec le conseil d'administration, mais pas sur des questions fondamentales comme celle-ci.
Les législateurs du monde entier luttent pour une réglementation adéquate de l'IA. Lors d'un sommet sur l'IA début novembre, plusieurs pays s'étaient engagés à coopérer sur ce thème. "Ce dont nous avons vraiment besoin, ce sont des filets de sécurité", a poursuivi Smith. "Tout comme il y a des freins d'urgence dans les ascenseurs ou des disjoncteurs, il devrait y avoir de telles sécurités dans les systèmes d'IA qui contrôlent les infrastructures critiques, afin qu'ils restent toujours sous contrôle humain".
Source: www.ntv.de