В Италии чат-робот ChatGPT вынужден сделать перерыв. Тамошний орган по защите данных усмотрел серьезные недостатки и распорядился заблокировать его. У оператора OpenAI теперь есть чуть меньше трех недель на ответ.

ChatGPT

Итальянский орган по защите данных временно заблокировал в стране популярный текстовый автомат ChatGPT. Среди прочего, в пятницу оно указало, что оператор OpenAI не предоставил достаточной информации об использовании данных. Он также заявил, что отсутствуют фильтры, предотвращающие показ детям до 13 лет информации, которая «совершенно неподходящая» для них. Было начато расследование.

В качестве меры предосторожности орган также запретил обработку данных пользователей из Италии – таким образом, ChatGPT больше не действует в этой стране. OpenAI было дано 20 дней, чтобы представить меры против обвинений. После этого ей грозит штраф в размере до 20 миллионов евро или четырех процентов от ее мирового оборота.

Массовый сбор персональных данных

Орган по защите данных также упомянул о недавней утечке данных. Некоторые пользователи ChatGPT могли видеть информацию из профилей других людей. Согласно OpenAI, проблема была вызвана ошибкой в программном обеспечении, используемом для ChatGPT.

Работа ChatGPT основана на том, что программное обеспечение собирает огромное количество текста. На этой основе она может формулировать предложения, которые едва ли можно отличить от человеческих. При этом программа оценивает, какие слова могут следовать далее в предложении. Помимо прочего, этот базовый принцип несет в себе риск того, что программа «галлюцинирует факты», как это называет OpenAI, – воспроизводит ложную информацию как верную.

Итальянские защитники данных также видят фундаментальную проблему в том, как ChatGPT был обучен. Они утверждают, что для массового сбора и хранения персональных данных с целью обучения алгоритмов нет никаких правовых оснований.

Распространение ложной информации

В феврале ведомство уже принимало аналогичные меры в отношении другого чат-бота под названием Replika. Основной проблемой было то, что дети в возрасте до 13 лет были недостаточно защищены.

В последние месяцы ChatGPT впечатлял тем, как хорошо программа может имитировать человеческую речь. В то же время существуют опасения, что такие технологии, основанные на искусственном интеллекте, могут быть использованы не по назначению, например, для распространения ложной информации.

Подпишитесь на наш Telegram
Получайте по 1 сообщению с главными новостями за день
Заглавное фото: Richard Drew/AP/dpa
Источник: dpa

Читайте также:

Обсуждение

Подписаться
Уведомить о
guest
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии