Les activités actuelles du spécialiste de l'IA Sutskever sont révélées.
Ilya Sutskever, maître audacieux en matière d'IA et coprésponsable de la ferveur autour d'Alexnet en 2012, lance une nouvelle entreprise, Safe Superintelligence (SSI), pour assurer la sécurité de la technologie IA.
À 37 ans, Sutskever, qui vient de fêter son anniversaire, était l'un des cerveaux derrière la naissance d'OpenAI en 2015. Son départ d'OpenAI en milieu mai a nourri des spéculations quant à ses plans futurs. Maintenant, le virtuose de l'IA a révélé quelques informations sur son projet à venir : Sutskever, en compagnie de son ex-collègue d'OpenAI Daniel Levy et de l'ancien responsable d'Apple Daniel Gross, crée Safe Superintelligence (SSI). Le but : cultiver une IA superintelligence sûre.
La question de la sécurité de l'IA a longtemps préoccupé Sutskever. Il s'est joint à OpenAI avec l'objectif de pousser l'innovation IA tout en abordant ses inquiétudes de sécurité. L'affaire Altman pourrait avoir été une partie de ce conflit – Sutskever étant supposé se déplaire face aux intérêts commerciaux en expansion d'OpenAI, transformant ce qui était une organisation à but non lucratif en un géant milliardaire. Sutskever n'a ni confirmé ni infirmé ces accusations publiquement, mais son collègue d'OpenAI et collaborateur de startup Jan Leike a récemment partagé les suivantes sur X : "L'emphase sur la sécurité avait pris la dernière place face à des produits flashy."
SSI tente de corriger cette situation. L'entreprise fonctionnera dans une zone tampon, éloignée des pressions extérieures, impliquée dans le développement d'un produit complexe et en compétition sur le marché. "Cette entreprise est unique parce que son premier produit sera une IA superintelligence sûre, et rien d'autre," Sutskever a déclaré à Bloomberg.
SSI ne peut pas échapper entièrement aux pressions commerciales. Les dernières modèles de langage exigent des quantités colossales de données et de puissance de calcul. La nouvelle entreprise de Sutskever n'est pas immunisée contre ces réalités économiques. Les identités des investisseurs de SSI restent inconnues.
Les détails de ce que SSI veut accomplir et développer n'ont pas été clarifiés. Cependant, il est clair qu'il ne s'agira pas de résoudre les défauts et les risques des produits IA existants, tels que les préoccupations de confidentialité, les problèmes de droits d'auteur ou la manque de précision factuelle comme compétence de base pour des outils comme ChatGPT.
Sutskever se penche sur des questions plus grandes, telles qu'apparaîtra l'IA avancée dans le futur et comment coexistera l'humanité avec elle. Dans une entrevue avec The Guardian il y a quelques mois, Sutskever a exprimé des inquiétudes quant à ce que l'AI "résoudra tous les problèmes que nous avons aujourd'hui", y compris le chômage, les maladies et la pauvreté, mais elle engendrerait également de nouveaux défis : "L'IA a la capacité de créer des dictatures éternelles." Sutskever fait référence à une phase future de l'IA appelée Superintelligence, selon ce point de vue, qui serait plus puissante qu'une IA générale (AGI). Elle ne reproduirait pas seulement des capacités humaines, mais également des capacités dépassant celle-ci.
Une telle Superintelligence devrait posséder la qualité de ne nuire pas significativement à l'humanité, comme Sutskever l'a déclaré à Bloomberg. "Nous voulons qu'elle fonctionne en fonction de certains valeurs essentielles." Sous cette enseigne, il imagine "peut-être les valeurs qui ont été si réussies ces derniers siècles et qui sous-tendent les démocraties libérales, telles que la liberté et la démocratie."
Exactement comment les fondateurs prévoient d'instiller ces valeurs dans leurs modèles IA restent inconnus. Il n'y a qu'une déclaration selon laquelle il y aura des installations de supercalculateur colossales dans le futur, qui développeront des technologies innovantes de manière autonome. "C'est fou, n'est-ce pas ? C'est 'notre sécurité, à laquelle nous voulons contribuer'."
Ce texte a d'abord paru sur capital.de