- Никогда не было покушения на Дональда Трампа.
AI-чатбот, который отрицал покушение на бывшего президента Дональда Трампа, поставил Meta, компанию-владельца Facebook, в трудное положение. Meta объясняет это явлением, известным как "галлюцинации", когда программное обеспечение AI придумывает информацию. Промышленность пока не нашла фундаментального решения этой проблемы.
Машина Лжет, Когда Ее Спрашивают О Покушении На Трампа
Meta пришлось защищаться от критики со стороны сторонников Трампа после того, как AI-чатбот компании первоначально отказался отвечать на вопросы о покушении на бывшего президента, а затем заявил, что этого никогда не происходило.
В блоге компания объяснила, что первоначально дала инструкцию Meta AI не упоминать покушение, произошедшее 13 июля. Это было потому, что такие высокопрофильные события часто сопровождаются противоречивыми отчетами и безосновательными спекуляциями, которые могут привести к зарождению теорий заговора.
Meta: "К сожалению", Но Не Умышленно
Даже после того, как AI-чатбот был снабжен информацией о покушении, он все еще заявлял в нескольких случаях, что этого не произошло, признала компания. Meta описала это как "к сожалению", но не умышленно.
"Галлюцинации" - это распространенная проблема с AI-чатботами и связана с тем, как работает программное обеспечение. Программы первоначально обучаются на больших объемах информации, а затем используют эту основу для оценки, как должна продолжаться фраза при ответе на запросы пользователей. Это может привести к тому, что программное обеспечение будет делать полностью ложные заявления, даже если его обучали только правильной информацией. Разработчики AI пытаются справиться с этой проблемой, внедряя дополнительные ограничения для программ.
Метка Факта-Проверки На Неверном Фото
В отдельном вопросе фото Трампа с его охраной сразу после покушения было ошибочно помечено меткой проверки фактов. Эта метка первоначально предназначалась для манипулированной версии изображения, на котором были добавлены улыбки на лицах охранников. Однако автоматизированные системы Meta столкнулись с трудностями в различении между двумя фотографиями и применили метку проверки фактов и к оригинальному изображению.
Покушение произошло, когда мужчина стрелял в Трампа во время предвыборного мероприятия в штате Пенсильвания. Выстрелы убили одного зрителя и ранили двоих других. Бывшего президента задело в ухо.
Meta признала дальнейшую критику со стороны сторонников Трампа, когда AI-чатбот заявил во время сеанса вопросов и ответов, что покушение на бывшего президента Дональда Трампа никогда не происходило, несмотря на то, что ему была предоставлена правильная информация об инциденте.
Несмотря на усилия Meta по информированию AI об инциденте, случались небольшие сбои, такие как ocasionalное отрицание AI события, которое компания объясняет продолжающейся борьбой с "галлюцинациями" в программном обеспечении AI.