Генератор изображений ИИ может сгенерировать фотографию человека с вашим лицом, но телом, например, Джоли. Чем это может быть опасно?

Эксперты объяснили чем может быть опасен генератор изображений ИИ

Никогда еще не было так легко создать поддельный образ реального человека. Генератор изображений ИИ, например, такие, как DALL‑E и Stable Diffusion, за считанные секунды создают фальшивую графику, на которую раньше уходили часы в Photoshop. Но насколько это опасно?

Читайте также: Как искусственный интеллект может сделать бизнес лучше

Николас Кейдж в роли Носферату? Хотя у голливудского актера была долгая карьера, он никогда не играл этого легендарного персонажа ужасов. Тем не менее, теперь мы можем представить, как Николас Кейдж мог бы выглядеть в роли Носферату. Это стало возможным благодаря «Стабильной диффузии» — генератору изображений ИИ:

Генератор изображений ИИ: DALL‑E, Midjourney and Co.

Такие программы для работы с изображениями, как DALL‑E и Midjourney, используют ИИ для сканирования миллионов изображений. А также для сбора информации о них и последующего создания или редактирования новых изображений по команде.

Кроме того, эти программы являются мощными инструментами для создания сложных искусственных произведений. Или кажущихся реальными фотографий за очень короткое время.

Между тем, DALL‑E и Midjourney могут управляться пользователями только при соблюдении строгих правил. Например, существуют фильтры, которые предотвращают создание порнографических или насильственных изображений.

Генератор изображений ИИ как программа с открытым исходным кодом?

Со «Стабильной диффузией» дело обстоит иначе. Проект основан на технике, схожей с DALL‑E и Midjourney, но с открытым исходным кодом. Это означает, что исходный код можно свободно загружать и использовать, даже в спорных целях.

Как сообщает Techcrunch, на некоторых интернет-форумах уже сформировались сообщества по искусственному созданию порнографических материалов. Часто это происходит с помощью манипуляций с лицами известных людей.

Глубокие подделки для всех?

Порнографические поддельные изображения, особенно актрис и других женщин-знаменитостей, продолжают попадать в Интернет. Однако платформы, подобные Stable Diffusion, могут значительно сократить усилия, необходимые для создания таких изображений. А также увеличить риск того, что жертвами deepfake могут стать частные лица, даже если они не находятся в поле зрения общественности.

В сочетании с другими цифровыми инструментами вскоре можно будет переносить голову человека на тело порнозвезды. Помимо того, можно будет создавать полностью поддельные тела, которые на первый взгляд выглядят обманчиво настоящими. И даже если в настоящее время технология работает в основном с изображениями, то следующим логическим шагом будет сделать возможным и подделку видео.

Даже DALL‑E, вероятно, самый известный генератор текста в картинку с довольно строгими правилами, с прошлой недели разрешил загружать настоящие лица, чтобы создавать с их помощью поддельные изображения. OpenAI, компания, создавшая DALL‑E, уверена, что порнографические и другие материалы не могут быть сгенерированы с его помощью.

Кроме того, фотографии следует загружать только с согласия людей, изображенных на них. Однако это вряд ли можно проверить.

Читайте также по теме:

Подпишитесь на наш Telegram
Получайте по 1 сообщению с главными новостями за день
Заглавное фото: metamorworks / Shutterstock.com
Источник: BR24

Читайте также:

Обсуждение

Подписаться
Уведомить о
guest
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии