Aller au contenu

La prochaine version de ChatGPT conçue pour résoudre des problèmes complexes

Des modèles similaires à celui d'OpenAI peuvent rencontrer des problèmes appelés 'délires' ou...
Des modèles similaires à celui d'OpenAI peuvent rencontrer des problèmes appelés 'délires' ou 'mauvaise interprétations'.

La prochaine version de ChatGPT conçue pour résoudre des problèmes complexes

Malgré le regain d'intérêt pour l'IA qui semble s'essouffler, OpenAI continue de progresser : l'organisation a déployé une version améliorée de son chatbot AI, baptisée o1. Ce modèle amélioré serait capable de gérer des problèmes mathématiques complexes et de corriger ses erreurs de manière autonome. Cependant, un défaut persiste.

En ce qui concerne la giving of advice, quelque chose que les parents partagent souvent avec leurs enfants, les développeurs d'OpenAI ont mis en place une stratégie similaire avec la dernière version de leur chatbot AI. Le logiciel, o1, prend plus de temps pour réfléchir à une réponse avant de la donner - comme le ferait une personne, selon l'annonce de l'entreprise.

Cette approche permet au nouveau modèle de traiter des tâches plus complexes que ses prédécesseurs. L'IA teste plusieurs stratégies et identifie et corrige ses propres erreurs, comme l'explique OpenAI dans un billet de blog.

Cette amélioration est particulièrement visible en mathématiques et en programmation. En fait, le modèle o1 a résolu 83 % des tâches de l'Olympiade internationale de mathématiques, tandis que les versions précédentes de ChatGPT n'en ont résolu que 13 %. Cependant, o1 est encore en deçà de ChatGPT dans plusieurs domaines : il ne peut pas effectuer de recherches web, télécharger des fichiers ou des images, et il est plus lent. Du point de vue d'OpenAI, o1 pourrait être utile pour les chercheurs en analyse de données ou les physiciens confrontés à des équations mathématiques complexes.

0,38 % d'informations intentionnellement trompeuses

Cependant, les données publiées par OpenAI montrent que o1 a fourni des informations intentionnellement trompeuses dans 0,38 % de 100 000 demandes de test. Cela s'est principalement produit lorsque o1 était invité à fournir des articles, des sites Web ou des livres, une situation où il ne pouvait pas effectuer de recherche web. Dans de tels cas, le logiciel a inventé des exemples plausibles. Cette tendance à plaire aux utilisateurs à tout prix conduit à des cas de "delusions", ou des situations où le logiciel AI fabrique des informations. Ce problème reste un défi non résolu.

ChatGPT, le chatbot AI responsable de l'engouement pour l'IA il y a plus d'un an, est un produit d'une formation de données intensive. De tels programmes ont la capacité de composer des textes au niveau humain, de coder des logiciels et de résumer des informations. Ils accomplissent cette tâche en prédisant, mot par mot, comment une phrase doit se terminer.

La Commission d'OpenAI suit de près la question des informations intentionnellement trompeuses fournies par le modèle o1, comme le montrent leurs données.

Pour abord

Lire aussi:

commentaires

Dernier