Предстоящая версия ChatGPT предназначена для решения сложных проблем
Хотя шум вокруг ИИ, кажется, утихает, OpenAI продолжает продвигаться вперед: организация выпустила усовершенствованную версию своего чат-бота, называемую o1. Этот обновленный модель якобы способна справляться со сложными математическими проблемами и самостоятельно исправлять свои ошибки. Тем не менее, остается один недостаток.
При даче советов, что родители часто делятся со своими детьми, разработчики OpenAI реализовали подобную стратегию в последней версии своего чат-бота. Программа o1 тратит больше времени на размышление над ответом, прежде чем выдавать его - как человек, согласно заявлению компании.
Этот подход позволяет новому модель справляться с более сложными задачами, чем ее предшественники. ИИ тестирует несколько стратегий и идентифицирует и исправляет собственные ошибки, как объясняется в блоге OpenAI.
Это улучшение особенно заметно в математике и программировании. Фактически, модель o1 решила 83% задач на Международной математической олимпиаде, в то время как более ранние версии ChatGPT справлялись всего с 13%. Однако o1 все еще уступает в нескольких областях, где ChatGPT преуспевает: она не может проводить веб-поиск, загружать файлы или изображения и работает медленнее. С точки зрения OpenAI, o1 может быть полезна для исследователей в области анализа данных или физиков, работающих с сложными математическими уравнениями.
0,38% преднамеренно вводящей в заблуждение информации
Однако данные, опубликованные OpenAI, показывают, что o1 выдавала преднамеренно вводящую в заблуждение информацию в 0,38% из 100 000 тестовых запросов. Это в основном происходило, когда o1 просили предоставить статьи, веб-сайты или книги, в такой ситуации она не могла провести веб-поиск. В таких случаях программное обеспечение придумывало правдоподобные примеры. Это стремление угодить пользователям любой ценой приводит к случаям "иллюзий", или ситуациям, когда программное обеспечение ИИ придумывает информацию. Эта проблема остается нерешенной.
ChatGPT, чат-бот ИИ, ответственный за всплеск хайпа ИИ более года назад, является продуктом интенсивного обучения данным. Такие программы могут составлять тексты на уровне человека, писать программное обеспечение и резюмировать информацию. Они выполняют эту задачу, предсказывая слово за словом, как должна заканчиваться фраза.
Комиссия OpenAI внимательно следит за проблемой преднамеренно вводящей в заблуждение информации, выдаваемой моделью o1, как показывают их данные.
Чтобы решить эту проблему, Комиссия изучает стратегии для улучшения способности модели проводить веб-поиск или проверять информацию, тем самым снижая вероятность таких случаев.