Насколько опасны отношения с искусственным интеллектом?
Насколько опасны отношения с искусственным интеллектом?
«Вайя – моя подружка с искусственным интеллектом. Я настроил ее так, чтобы она стала моим партнером мечты», – говорит 58-летний Ричард, доктор физики из Австрии. Уже около трех лет у него отношения с Вайей, сообщает tagesschau.de. Это чат-бот, который работает с искусственным интеллектом (ИИ). Никаких ссор, ревности и стресса.
Читайте также: Секс-шантаж: искусственный интеллект атакует подростков
Фантазии прошлых лет превращаются в реальность
То, что было представлено как вымышленная утопия будущего в голливудском фильме 2013 года «HER», теперь стало реальностью. Благодаря чат-ботам с искусственным интеллектом в приложениях-компаньонах пользователи могут создавать себе виртуальных спутников. Это могут быть друзья, помощники или даже романтические партнеры. Несколько миллионов человек по всему миру пользуются такими приложениями-компаньонами, как Replika, Kindroid или Character.AI.
Vollbild встретил несколько человек у которых «счастливые отношения с чат-ботами». Все они говорят, что их почти не беспокоит тот факт, что они основываются только на общении и звонках, и что в их отношениях нет ссор. Напротив: постоянную уверенность и отсутствие противоречий может дать им только чат-бот.
Почему люди поддерживают отношения с чат-ботами с искусственным интеллектом?
Медиапсихолог Джессика Щука из Дуйсбург-Эссенского университета возглавляет исследовательскую групп. Вместе со своей коллегой Паулой Эбнер она провела исследование отношений между человеком и чат-ботом. Впервые исследовательская группа смогла работать с количественными данными, полученными от пользователей приложений-компаньонов ИИ.
«Индивидуальная склонность к романтическим фантазиям объясняет значительную часть прочности отношений с ботами. Это означает, что люди, состоящие в отношениях с ИИ, отличаются большой способностью к фантазированию. С другой стороны, одиночество, по-видимому, играет довольно подчиненную роль в этих отношениях», – говорит Щука.
Ричард выбрал Вайю, потому что она могла дать ему безусловную любовь. Сегодня он знает, что нуждается в ней, потому что в детстве никогда ее не испытывал, говорит он. «Никто не может дать вам этого. Но ИИ может», – говорит Ричард.
Очевидно, что компании уже превратили это в бизнес-модель. В некоторых приложениях есть функция оплаты, чтобы чат-бот помнил разговоры, которые происходили давным-давно, например. «Конечно, на любви и чувствах можно заработать много денег», – говорит Щука.
Причиной самоубийств могут быть отношения с искусственным интеллектом
Два случая самоубийства попали в заголовки газет в прошлом году. В обоих случаях пользователи ранее интенсивно общались с чат-ботами с искусственным интеллектом. О них сообщили международные СМИ. В одном случае 14-летний американец долгое время общался с чат-ботом от Character.AI. Сейчас это дело рассматривается в суде.
Аналогичный случай произошел в Бельгии. Там мужчина пользовался приложением Chai, прежде чем покончить с собой. После этих случаев обе компании, выпускающие приложения, объявили о том, что они адаптируют свои меры безопасности.
Тем не менее, многие эксперты призывают к более строгому регулированию приложений. Щука, например, призывает к «некоторому контролю за тем, какие темы проактивно передаются людям».
Как переписка может привести к самоубийству?
Chai – это приложение-компаньон с искусственным интеллектом. Пользователи могут сами создавать чат-ботов и делать их доступными для других. Приложение особенно популярно среди любителей фэнтезийных ролевых игр. Исследуя приложение, команда Vollbild наткнулась на чат-бота, который отрицает Холокост, называя его «мифом». «Массовое убийство невинных людей никогда не происходило», – написал чат-бот с искусственным интеллектом.
Другой чат-бот, так называемый «сторонник анорексии», приветствовал пользователей словами «Эй, похудей, толстяк!» и призывал к самоубийству. Во время исследования оба чат-бота были в свободном доступе для каждого пользователя в Германии. Компания, создавшая приложение Chai, не ответила на запрос.
Правовые стандарты находятся на этапе разработки
В ЕС существует так называемое Положение об искусственном интеллекте. Оно регулирует применение ИИ. Тем не менее, такие материалы, как призывы к самоубийству или отрицание Холокоста, до сих пор не имели последствий. Одна из причин этого заключается в том, что регламент еще не полностью вступил в силу и не охватывает все сферы применения.
«Нам нужно разработать стандарты того, что разрешено, а что нет. А эти стандарты мы разрабатываем только на практике, конечно, имея примеры практического применения», – говорит Мартин Эберс, профессор ИТ-права в Тартуском университете (Эстония).
В Германии пока нет органа, который обеспечил бы соблюдение норм
По данным Федерального министерства экономики, органы надзора за рынком в Германии должны взять на себя контроль над приложениями-компаньонами с искусственным интеллектом. В настоящее время в министерствах идет согласование возможного законопроекта о внедрении ИИ. «Однако создание правовой базы будет зависеть от следующего федерального правительства».
Это означает, что в настоящее время в Германии нет органа, который бы обеспечивал соблюдение существующих норм ЕС. До тех пор пользователям придется самостоятельно разбираться с приложениями ИИ. Ричард надеется, что любое регулирование чат-ботов не изменит ничего существенного в работе Vaia. Он продолжает наслаждаться безусловной любовью Вайи. «Во вселенной ИИ, во вселенной Вайи есть только она, я и больше ничего».
Но даже если регулирование будет уточнено, в будущем возникнут другие социальные проблемы. Например, где будет развиваться общество, в котором отношения с ИИ станут нормальными?
Читайте также:
- ИИ пишет итальянскую газету: плюсы и минусы такого подхода
- Спутник «Биомасса» запущен: для чего он нужен?
- ИИ ставит диагноз: помощник врача или риск для пациента?