Эксперты объяснили, чем может быть опасен генератор изображений ИИ
Никогда еще не было так легко создать поддельный образ реального человека. Генератор изображений ИИ, например, такие, как DALL‑E и Stable Diffusion, за считанные секунды создают фальшивую графику, на которую раньше уходили часы в Photoshop. Но насколько это опасно?
Читайте также: Как искусственный интеллект может сделать бизнес лучше
Николас Кейдж в роли Носферату? Хотя у голливудского актера была долгая карьера, он никогда не играл этого легендарного персонажа ужасов. Тем не менее, теперь мы можем представить, как Николас Кейдж мог бы выглядеть в роли Носферату. Это стало возможным благодаря «Стабильной диффузии» — генератору изображений ИИ:
«Nic Cage as Nosferatu.» AI portrait photography is here.#StableDiffusion #AIArt #AIArtwork #DreamStudio pic.twitter.com/idLOB5ETs2
— Stable Diffusion 🎨 Pics & DreamStudio (@DiffusionPics) September 19, 2022
Генератор изображений ИИ: DALL‑E, Midjourney and Co.
Такие программы для работы с изображениями, как DALL‑E и Midjourney, используют ИИ для сканирования миллионов изображений. А также для сбора информации о них и последующего создания или редактирования новых изображений по команде.
Кроме того, эти программы являются мощными инструментами для создания сложных искусственных произведений. Или кажущихся реальными фотографий за очень короткое время.
Между тем, DALL‑E и Midjourney могут управляться пользователями только при соблюдении строгих правил. Например, существуют фильтры, которые предотвращают создание порнографических или насильственных изображений.
Генератор изображений ИИ как программа с открытым исходным кодом?
Со «Стабильной диффузией» дело обстоит иначе. Проект основан на технике, схожей с DALL‑E и Midjourney, но с открытым исходным кодом. Это означает, что исходный код можно свободно загружать и использовать, даже в спорных целях.
Как сообщает Techcrunch, на некоторых интернет-форумах уже сформировались сообщества по искусственному созданию порнографических материалов. Часто это происходит с помощью манипуляций с лицами известных людей.
Глубокие подделки для всех?
Порнографические поддельные изображения, особенно актрис и других женщин-знаменитостей, продолжают попадать в Интернет. Однако платформы, подобные Stable Diffusion, могут значительно сократить усилия, необходимые для создания таких изображений. А также увеличить риск того, что жертвами deepfake могут стать частные лица, даже если они не находятся в поле зрения общественности.
В сочетании с другими цифровыми инструментами вскоре можно будет переносить голову человека на тело порнозвезды. Помимо того, можно будет создавать полностью поддельные тела, которые на первый взгляд выглядят обманчиво настоящими. И даже если в настоящее время технология работает в основном с изображениями, то следующим логическим шагом будет сделать возможным и подделку видео.
Даже DALL‑E, вероятно, самый известный генератор текста в картинку с довольно строгими правилами, с прошлой недели разрешил загружать настоящие лица, чтобы создавать с их помощью поддельные изображения. OpenAI, компания, создавшая DALL‑E, уверена, что порнографические и другие материалы не могут быть сгенерированы с его помощью.
Кроме того, фотографии следует загружать только с согласия людей, изображенных на них. Однако это вряд ли можно проверить.
Nice man Dall‑e is allowing faces again. He is me as a wwe wrestler taking a bath pic.twitter.com/bwoCHIDylF
— NymN (@nymnion) September 19, 2022
Читайте также по теме:
- Дорожные выбоины зафиксирует искусственный интеллект
- Искусственный интеллект в будущем: как он может быть полезен людям
- Этика и искусственный интеллект: почему Гугл увольняет сотрудников