Сократить длинный текст или решить сложное уравнение: программы искусственного интеллекта помогают нам в повседневной жизни. Но они могут быть использованы и против вас. Поэтому будьте критичны и бдительны.

Доверять ли искусственному интеллекту и как защитить данные

Доверять ли искусственному интеллекту и как защитить данные

От сгенерированных изображений, видео и аудиоконтента до текстов, созданных на основе языковых моделей. Теперь мы постоянно сталкиваемся с продуктами программ искусственного интеллекта (ИИ) в повседневной жизни. Но можно ли доверять искусственному интеллекту и как защитить свои данные? Федеральное ведомство по информационной безопасности Германии (BSI) советует всем, кто общается с ИИ в чатах, помнить о различных аспектах безопасности.

Читайте также: Кибербезопасность в Германии: как защитить личные данные?

С одной стороны, большие объемы данных, которые обрабатывает искусственный интеллект, интересны для поставщика. Поэтому следует ознакомиться с декларацией о защите данных и условиями компании. Это нужно чтобы выяснить, какие права есть у производителя. Особенно что касается персональных данных.

ИИ подвержен манипуляциям, цензуре и галлюцинациям

BSI предупреждает, что объемы данных привлекают киберпреступников. Иногда они пытаются прочитать то, что вводит пользователь, или манипулируют чатом так, что ИИ пытается выяснить личные данные. Например, пароли, данные банковских карт. Или отображают ссылки на фишинговые сайты.

Доверять ли искусственному интеллекту и как защитить данные. Фото: freestocks / unsplash.comДоверять ли искусственному интеллекту и как защитить данные. Фото: freestocks / unsplash.com

Более того, ИИ не всегда работает надежно. Языковые модели хороши настолько, насколько и данные, которые используют для их обучения. Они также могут подвергаться цензуре, случайно выдавать неверную информацию или вообще генерировать ее. Ложная информация, придуманная ИИ, называется галлюцинациями.

Вам не всегда звонят родственники

Преступники совершенствуют свои аферы с помощью искусственного интеллекта. С его помощью они создают убедительные электронные письма с самыми разными вопросами на разных языках.

Они используют искусственный интеллект для создания обманчиво реальных видео или аудиофрагментов (deepfakes). Например, с их помощью они выдают себя за родственников или других близких людей того, кому звонят. Симулируют чрезвычайную ситуацию и просят денег: классический трюк с внуками при поддержке ИИ.

Вот как BSI рекомендует защитить данные от угроз, которые могут возникнуть при использовании ИИ:

  • Не вводите в поля ввода чат-ботов с искусственным интеллектом никакую личную информацию. Например, почтовый адрес, пароли или данные карт. То же самое, разумеется, относится и к конфиденциальной, секретной или деловой информации.
  • Раскрывайте меньше информации. Лучше всего сократить объем личной информации, которую вы предоставляете в Интернете, чтобы уменьшить потенциальный ущерб.
  • Не доверяйте слепо результатам работы ИИ. Тщательно и критически изучайте их предложения.

Остерегайтесь попыток мошенничества. Неважно, насколько правдоподобно или реалистично они звучат – возможно, это благодаря искусственному интеллекту. Критически оценивайте необычные сообщения или звонки от друзей, родственников или компаний. Это особенно актуально, если вам сообщают шокирующую информацию и ограничивают вас во времени. Если сомневаетесь, следует уточнить лично у человека.

Читайте также:

Подпишитесь на наш Telegram
Получайте по 1 сообщению с главными новостями за день
Заглавное фото: Towfiqu barbhuiya / unsplash.com

Читайте также:

Обсуждение

Подписаться
Уведомить о
guest
0 комментариев
Старые
Новые Популярные
Межтекстовые Отзывы
Посмотреть все комментарии