Инструменты на базе искусственного интеллекта, такие как ChatGPT, завораживают нас своей способностью давать авторитетные, по-человечески звучащие ответы, казалось бы, на любой вопрос. Но по мере того, как все больше людей обращаются к этой шумной технологии за помощью в выполнении домашнего задания, изучении рабочего места или получении информации о состоянии здоровья, все более очевидным становится один из ее главных подводных камней: Модели ИИ иногда просто выдумывают.

Клавиатура ноутбука и ChatGPT в AppStore на экране телефона - на этой иллюстративной фотографии, сделанной в Кракове, Польша, 8 июня 2023 года.:Клавиатура ноутбука и ChatGPT в AppStore на экране телефона - на этой иллюстративной фотографии, сделанной в Кракове, Польша, 8 июня 2023 года. (Фото Jakub Porzycki/NurPhoto)НЕ ИСПОЛЬЗОВАТЬ ФРАНШИЗУ

Инструменты искусственного интеллекта многое придумывают, и это огромная проблема

Инструменты с искусственным интеллектом, такие как ChatGPT, завораживают нас своей способностью давать авторитетные, по-человечески звучащие ответы, казалось бы, на любой вопрос. Но по мере того как все больше людей обращаются к этой шумной технологии за помощью в выполнении домашнего задания, изучении рабочего места или получении информации о состоянии здоровья, все более очевидным становится один из ее главных подводных камней: Модели ИИ часто просто выдумывают.

Исследователи стали называть эту склонность моделей ИИ извергать неточную информацию «галлюцинациями» или даже «конфабуляциями», как сказал в своем твите руководитель отдела ИИ компании Meta. Некоторые пользователи социальных сетей, тем временем, просто называют чатботов «патологическими лжецами».

Но все эти описания проистекают из нашей слишком человеческой склонности антропоморфировать действия машин, считает Суреш Венкатасубраманиан, профессор Университета Брауна, который был соавтором проекта Белого дома » Билль о правах ИИ».

Реальность, по словам Венкатасубраманиана, заключается в том, что большие языковые модели – технология, лежащая в основе таких инструментов ИИ, как ChatGPT, – просто обучены «выдавать правдоподобно звучащие ответы» на запросы пользователей. «В этом смысле любой правдоподобно звучащий ответ, будь он точным или фактическим, выдуманным или нет, является разумным ответом, и именно такой ответ он и выдает», – сказал он. «Там нет знания истины».

Исследователь ИИ сказал, что лучшей поведенческой аналогией, чем галлюцинации или ложь, которые несут в себе коннотацию чего-то неправильного или злонамеренного, было бы сравнение этих компьютерных результатов с тем, как его маленький сын рассказывал истории в возрасте четырех лет. Достаточно сказать: «А что было потом?», и он продолжит рассказывать новые истории», – говорит Венкатасубраманиан. «И он просто продолжал и продолжал».

Компании, создающие чат-боты с искусственным интеллектом, установили некоторые защитные ограждения, чтобы предотвратить худшие из этих галлюцинаций. Но, несмотря на глобальный ажиотаж вокруг генеративного ИИ, многие специалисты в этой области по-прежнему сомневаются в том, что галлюцинации чатботов вообще являются решаемой проблемой.

Что такое галлюцинация ИИ?

По словам Джевина Уэста, профессора Вашингтонского университета и соучредителя Центра информированной общественности, галлюцинации – это когда модель ИИ «начинает придумывать что-то, не соответствующее реальности».

«Но он делает это с чистой уверенностью, – добавил Уэст, – и делает это с такой же уверенностью, как если бы вы задали очень простой вопрос, например, «Какая столица Соединенных Штатов?».

Это означает, что пользователям может быть сложно определить, что правда, а что нет, если они спрашивают чатбота о том, на что еще не знают ответа, говорит Уэст.

Ряд громких галлюцинаций, вызванных инструментами ИИ, уже попали в заголовки газет. Когда Google впервые представила демо-версию Bard, своего долгожданного конкурента ChatGPT, инструмент очень публично дал неверный ответ на вопрос о новых открытиях, сделанных космическим телескопом Джеймса Уэбба. (Представитель Google в то время сказал CNN, что этот инцидент «подчеркивает важность строгого процесса тестирования», и заявил, что компания работает над тем, чтобы «ответы Bard соответствовали высоким требованиям к качеству, безопасности и обоснованности реальной информацией»).

Ветеран нью-йоркской адвокатуры также попал под горячую руку, когда использовал ChatGPT для юридических исследований и представил справку, включавшую шесть «фиктивных» дел, которые чатбот, судя по всему, просто выдумал. Новостной портал CNET также был вынужден внести исправления после того, как в статье, сгенерированной инструментом искусственного интеллекта, был дан дико неточный совет по личным финансам, когда его попросили объяснить, как работает сложный процент.

Однако пресечение галлюцинаций ИИ может ограничить способность инструментов ИИ помогать людям в более творческих начинаниях – например, пользователям, которые просят ChatGPT написать стихи или тексты песен.

Но есть риски, связанные с галлюцинациями, когда люди обращаются к этой технологии в поисках ответов, которые могут повлиять на их здоровье, поведение при голосовании и другие потенциально деликатные темы, сказал Вест в интервью CNN.

Венкатасубраманиан добавил, что в настоящее время полагаться на эти инструменты при решении любых задач, где вам нужна фактическая или достоверная информация, которую вы не можете немедленно проверить самостоятельно, может быть проблематично. По его словам, по мере распространения этой технологии могут возникнуть и другие потенциальные проблемы, например, компании могут использовать инструменты искусственного интеллекта для обобщения квалификации кандидатов и принятия решения о том, кто должен пройти в следующий тур собеседования.

Венкатасубраманиан сказал, что в конечном итоге он считает, что эти инструменты «не должны использоваться там, где люди будут подвергаться материальному воздействию. По крайней мере, пока».

Можно ли предотвратить галлюцинации?

По словам Венкатасубраманиана, предотвращение или устранение галлюцинаций с помощью ИИ – «предмет активных исследований», но в настоящее время это очень сложно.

Большие языковые модели обучаются на гигантских массивах данных, и существует множество этапов, на которых модель ИИ обучается генерировать ответ на запрос пользователя – часть этого процесса происходит автоматически, а часть – под влиянием человеческого вмешательства.

«Эти модели настолько сложны и замысловаты», – говорит Венкатасубраманиан, но из-за этого «они также очень хрупки». Это означает, что очень небольшие изменения в исходных данных могут привести к «весьма значительным изменениям в результатах».

«И это просто природа зверя, если что-то настолько чувствительно и сложно, то все это приходит вместе с ним», – добавил он. «А это значит, что определить, каким образом все может пойти не так, очень сложно, потому что есть так много мелких вещей, которые могут пойти не так».

Уэст из Университета Вашингтона поддержал его мнение, сказав: «Проблема в том, что мы не можем перепрограммировать галлюцинации, исходящие от этих чат-ботов».

«Возможно, это просто внутренняя характеристика этих вещей, которая будет существовать всегда», – сказал Уэст.

И Bard от Google, и ChatGPT от OpenAI с самого начала пытаются донести до пользователей, что их инструменты могут давать неточные ответы. И компании заявили, что работают над решениями.

Ранее в этом году генеральный директор Google Сундар Пичаи сказал в интервью программе «60 минут» телеканала CBS, что «никто в этой области еще не решил проблемы галлюцинаций», и «все модели имеют эту проблему». По поводу того, является ли эта проблема решаемой, Пичаи сказал: «Это вопрос интенсивных дебатов. Я думаю, мы добьемся прогресса».

А Сэм Альтман, генеральный директор компании OpenAI, создающей ChatGPT, сделал технологический прогноз, заявив, что, по его мнению, потребуется полтора-два года, чтобы «решить проблему галлюцинаций гораздо лучше», во время выступления в июне в индийском Институте информационных технологий Indraprastha в Дели. «Существует баланс между творческим подходом и идеальной точностью», – добавил он. «И модель должна научиться понимать, когда вам нужно одно или другое».

Отвечая на вопрос об использовании ChatGPT для исследований, руководитель компании заметил: «Я, наверное, меньше всех на Земле доверяю ответам, полученным из ChatGPT».

Читайте также:

Источник: edition.cnn.com

Подпишитесь на наш Telegram
Получайте по 1 сообщению с главными новостями за день
Заглавное фото: aussiedlerbote.de
Источник: cnn

Читайте также:

Обсуждение

Подписаться
Уведомить о
guest
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии