Ce que vous devez savoir sur la super IA Q*.
L'avertissement d'un développement potentiellement dangereux pour l'homme dans le domaine de l'intelligence artificielle aurait joué un rôle important dans le licenciement de Sam Altman de la tête du fournisseur de ChatGPT OpenAI. Que se cache-t-il derrière la prétendue superintelligence Q* ?
Il y a quelques jours encore, la soi-disant superintelligence était presque une chimère. Beaucoup s'étonnaient de ce que l'intelligence artificielle pouvait déjà faire et de la vitesse à laquelle les développeurs de logiciels publiaient de nouveaux programmes plus performants. Mais même de nombreux experts ne pouvaient pas imaginer que l'IA soit plus intelligente que l'homme, du moins pas encore. Il faudra encore des années pour développer une superintelligence, entendait-on souvent dans les milieux spécialisés. Mais il y a maintenant des spéculations sur le fait qu'une percée importante pourrait peut-être déjà avoir été réalisée depuis longtemps.
La raison en est le nouveau projet de l'inventeur de ChatGPT, OpenAI, appelé Q* ("Q-Star"). Le modèle doit pouvoir résoudre de manière autonome des problèmes mathématiques qu'il ne connaissait pas auparavant - du point de vue des experts, cela constituerait une étape importante vers l'"Artificial General Intelligence", abrégé AGI ou appelé familièrement "superintelligence".
Comme l'ont rapporté l'agence de presse Reuters et le magazine "The Information", Q* aurait également joué un rôle dans le licenciement du CEO et cofondateur d'OpenAI Sam Altman, qui a entre-temps été réintégré. En effet, selon les deux sources, une version test du modèle, qui aurait circulé au sein d'OpenAI, aurait alerté les experts en sécurité. Dans une lettre interne adressée au personnel, ils ont apparemment averti que le développement de Q* pourrait représenter une "menace pour l'humanité".
"Personne ne sait exactement ce que c'est"
Mais que peut faire le programme pour déclencher de telles poussées d'angoisse dans les cercles de l'entreprise de logiciels ? "Personne ne sait exactement de quoi il s'agit", explique Damian Borth, directeur académique du programme de doctorat en informatique de l'université de Saint-Gall. "Il n'y a pas d'entrée de blog ou de document qui ait été publié. Il n'y a que des suppositions, et c'est ce qui est intéressant". Comme beaucoup d'autres membres de la communauté, il suppose que derrière le "Q" du nom se cache une référence à ce que l'on appelle le Q-Learning. Il s'agit d'un algorithme issu du reinforcement learning, une méthode d'apprentissage automatique. Pour simplifier, les programmes interagissent avec leur environnement, prennent des décisions et reçoivent une récompense en cas d'action positive. Il est ainsi renforcé (reinforcement) et l'exécute plus souvent, et inversement pour les actions négatives.
D'autres au sein de la communauté en ligne d'OpenAI pensent que le nom de code du projet fait référence à l'informatique quantique. Les ordinateurs quantiques sont extrêmement puissants et peuvent résoudre des problèmes complexes spécifiques avec de nombreuses variables plus rapidement que les ordinateurs traditionnels. Borth estime toutefois que cela est peu probable. "OpenAI n'a pas fait grand-chose dans ce domaine, mais a clairement misé sur les GPU, c'est-à-dire les processeurs graphiques", explique-t-il. "En revanche, OpenAI a toujours été très fort dans le domaine du reinforcement learning. Avec l'IA générative, dont ChatGPT fait partie, c'est l'un des piliers centraux".
Derrière l'astérisque de Q*, la communauté soupçonne l'algorithme "A*" de pouvoir déterminer le chemin le plus court entre deux nœuds ou points. Pour ce faire, il ne choisit pas aveuglément le nœud accessible le plus proche, mais prend en compte d'autres informations afin d'accélérer la recherche.
Les utilisateurs expriment ouvertement leur scepticisme
Bien que l'on ne dispose jusqu'à présent de presque aucune information sûre sur Q*, de nombreux membres de la communauté déclarent déjà que ce nouveau modèle d'IA est "la plus grande percée de la civilisation humaine", une "révolution" et un système "révolutionnaire". De grands mots pour dire que, selon Reuters et "The Information", Q* est tout juste capable de résoudre des problèmes de mathématiques du niveau de l'école primaire.
Certains utilisateurs expriment donc ouvertement leur scepticisme : "En tant que personne ayant fait beaucoup de recherches sur l'IA, je peux dire qu'il est très facile de croire que l'on a réalisé une percée", écrit l'un d'eux. Un autre écrit que "l'intelligence humaine ou super-humaine" a besoin d'une "architecture différente". "Q* est certes un mouvement dans cette direction, mais il n'est pas du tout clair qu'il s'agisse de "cela"", écrit un utilisateur sur OpenAI.
En fait, la particularité de Q* est apparemment qu'il peut résoudre des tâches de manière autonome sur le plan mathématique. "D'après l'état actuel des connaissances, c'est la première fois que l'IA parvient à fournir une prestation intellectuelle, comme cela est nécessaire en mathématiques", explique Borth. "La machine ne se contente donc pas de babiller, comme le disent les sceptiques de ChatGPT, mais Q* doit probablement avoir la capacité de tirer des conclusions logiques". Il n'est toutefois pas encore possible de dire si cela constitue également un pas décisif vers l'AGI.
"D'une part, la définition d'AGI n'est pas tout à fait claire. Est-ce une machine qui a conscience d'elle-même, qui travaille contre l'homme ou qui généralise simplement sur plusieurs tâches ?", explique Borth. "D'autre part, de mon point de vue, une AGI n'est pas du tout nécessaire pour devenir dangereuse pour l'homme. Selon la manière dont nous gérons nos systèmes actuels, cela peut déjà arriver maintenant".
Altman est considéré comme le visage du boom de l'IA
L'inquiétude vient également du fait que l'entreprise elle-même aurait mis en garde contre ce phénomène. Selon "The Information", c'est surtout le rythme du développement qui aurait mis les experts en sécurité en émoi.
Altman, considéré comme le visage du boom de l'IA et qui aurait eu dès le début pour objectif d'apprendre aux ordinateurs à apprendre par eux-mêmes, s'est exprimé ainsi sur les risques potentiels de l'IA lors d'une audition au Sénat américain cette année : "Mes pires craintes sont que nous causions des dommages considérables à la technologie et à l'industrie. [...] Je pense que si cette technologie tourne mal, elle peut tourner très mal. Et nous voulons le faire savoir haut et fort", a déclaré Altman, qui est à nouveau PDG d'OpenAI après une valse-hésitation sans précédent.
Il y a près de deux semaines, le conseil d'administration avait d'abord licencié Altman sans donner de raisons et avait nommé à deux reprises un CEO intérimaire. Mercredi dernier, la pression du grand investisseur Microsoft est devenue trop forte et Altman est revenu à son poste. Parallèlement, un nouveau conseil d'administration a été mis en place, dont fait notamment partie l'ancien secrétaire au Trésor américain Larry Summers. Selon Sarah Kreps, directrice du Tech Policy Institute à Washington, le nouveau conseil d'administration soutient la vision d'Altman d'accélérer le développement de l'IA tout en prenant des mesures de sécurité.
Cet article a d'abord été publié sur Capital.de.
Source: www.ntv.de