Что нужно знать о супер ИИ Q*
Предупреждение о потенциально опасном для человека развитии искусственного интеллекта якобы сыграло важную роль в увольнении Сэма Альтмана с поста главы чатГПТ-провайдера OpenAI. Что стоит за предполагаемым суперинтеллектом Q*?
Еще несколько дней назад так называемый суперинтеллект был почти несбыточной мечтой. Многие люди были поражены тем, на что уже способен искусственный интеллект, и скоростью, с которой разработчики программного обеспечения выпускают новые и более совершенные программы. Однако даже многие эксперты не могли представить, что ИИ станет умнее человека, по крайней мере пока. По мнению многих экспертов, для создания сверхразума потребуются годы. Но теперь появились предположения, что важный прорыв, возможно, уже достигнут.
Причина тому - новый проект изобретателя ChatGPT компании OpenAI под названием Q* ("Q-Star"). Предполагается, что модель сможет самостоятельно решать математические задачи, которые она не знала ранее - эксперты считают, что это станет важной вехой в направлении "искусственного общего интеллекта", сокращенно AGI, или, в просторечии, супер-интеллекта.
Как сообщают информационное агентство Reuters и журнал "The Information", Q* также сыграла свою роль в увольнении теперь уже восстановленного в должности генерального директора и соучредителя OpenAI Сэма Альтмана. По словам этих двух источников, тестовая версия модели, которая, вероятно, циркулировала внутри OpenAI, встревожила экспертов по безопасности. Во внутреннем письме сотрудникам, очевидно, предупреждалось, что разработка Q* может представлять "угрозу для человечества".
"Никто точно не знает, что это такое".
Но что может делать программа, вызвавшая такой всплеск страха в компании-разработчике? "Никто точно не знает, что это такое", - говорит Дамиан Борт, научный руководитель докторской программы по компьютерным наукам в Университете Санкт-Галлена. "Нет ни одного сообщения в блоге или статьи, которая была бы опубликована. Есть только предположения, и это самое интересное". Как и многие другие участники сообщества, он подозревает, что "Q" в названии - это отсылка к так называемому Q-learning. Это алгоритм обучения с подкреплением, метод машинного обучения. Проще говоря, программы взаимодействуют с окружающей средой, принимают решения и получают вознаграждение за положительное действие. Это поощряет ее (подкрепление), и она выполняет действие чаще, и наоборот, в случае с негативными действиями.
Однако другие члены онлайн-сообщества OpenAI подозревают, что за кодовым названием проекта скрываются квантовые вычисления. Квантовые компьютеры чрезвычайно мощные и могут решать определенные сложные задачи с большим количеством переменных быстрее, чем обычные компьютеры. Однако Борт считает это маловероятным. "OpenAI не так много сделал в этой области, но явно сосредоточился на GPU, то есть графических процессорах", - говорит он. "С другой стороны, в области обучения с подкреплением OpenAI всегда была очень сильна. Наряду с генеративным ИИ, к которому относится ChatGPT, это один из центральных столпов".
За звездочкой Q* сообщество подозревает алгоритм "A*", который может определить кратчайший путь между двумя узлами или точками. Для этого он не выбирает вслепую следующий доступный узел, а учитывает дополнительную информацию, чтобы ускорить поиск.
Пользователи открыто выражают скептицизм
Несмотря на то что достоверной информации о Q* пока практически нет, многие в сообществе уже заявляют о новой модели ИИ как о "величайшем прорыве в человеческой цивилизации", "революции" и "революционной" системе. Это громкие слова, если учесть, что, по данным Reuters и The Information, Q* может решать задачи по математике только на уровне начальной школы.
Поэтому некоторые пользователи настроены откровенно скептически: "Как человек, который провел много исследований в области ИИ, могу сказать, что очень легко поверить в то, что прорыв достигнут", - пишет один из пользователей. Другой пишет, что "человеческий или сверхчеловеческий интеллект" нуждается в "другой архитектуре". "Q* - это движение в этом направлении, но совсем не ясно, "то ли это", - пишет один из пользователей OpenAI.
На самом деле, особенность Q*, видимо, в том, что он может самостоятельно решать математические задачи. "Насколько нам известно, это первый случай, когда ИИ удалось достичь такой интеллектуальной производительности, которая требуется для математики", - говорит Борт. "Таким образом, машина не просто повторяет слова, как утверждают скептики из ChatGPT, но Q*, как предполагается, обладает способностью делать логические выводы". Однако является ли это решающим шагом на пути к AGI, пока сказать нельзя.
"Во-первых, определение AGI не совсем ясно. Это машина, которая осознает себя, которая работает против человека или которая просто обобщает несколько задач?" - говорит Борт. "С другой стороны, я не думаю, что AGI должны быть опасны для человека. В зависимости от того, как мы обращаемся с нашими нынешними системами, это уже может произойти".
Альтман считается лицом бума ИИ
Беспокойство также вызвано тем, что сама компания якобы предупреждала об этом. Эксперты по безопасности, как говорят, были особенно встревожены темпами развития, сообщает The Information.
Альтман, который считается лицом бума ИИ и, как говорят, с самого начала ставил перед собой цель научить компьютеры обучаться самостоятельно, прокомментировал потенциальные риски ИИ на слушаниях в Сенате США в этом году: "Мои худшие опасения заключаются в том, что мы наносим значительный ущерб технологии и индустрии. [...] Я думаю, что если эта технология пойдет не так, то все может пойти очень плохо. И мы хотим об этом заявить", - сказал Альтман, который вернулся на пост генерального директора OpenAI после беспрецедентного противостояния.
Первоначально совет директоров уволил Альтмана почти две недели назад без объяснения причин и дважды назначал временного генерального директора. Однако в прошлую среду давление со стороны основного инвестора Microsoft стало слишком сильным, и Альтман вернулся на свой пост. В то же время был назначен новый совет директоров, в который вошел бывший министр финансов США Ларри Саммерс. По словам Сары Крепс, директора Института технологической политики в Вашингтоне, новый совет директоров поддерживает видение Альтмана - ускорить развитие ИИ и в то же время принять меры предосторожности.
Эта статья впервые появилась на сайте Capital.de.
Источник: www.ntv.de