ИИ по своим возможностям приближаются к человеческому разуму. Но если так, то может ли программа превратиться в «личность» и стать живой?

Чат-бот с искусственным интеллектом

ИИ уже трудится над решением различных задач в сфере IT и решает достаточно сложные задачи. Но возникает вопрос, можно ли программу, в которой реализованы алгоритмы машинного обучения, продолжать считать программой. Или она превращается в живое существо? Один из программистов Google заявил, что чат-бот с искусственным интеллектом стал «разумным». Пока единственным следствием этого события стало временное отстранение сотрудника от работы.

Читайте также: Этика и искусственный интеллект: почему Гугл увольняет сотрудников

Информация под замком

Блейк Лемуан, который работает инженером-программистом в Google, занимается разработкой алгоритмов машинного обучения и ИИ. Он посчитал, что во время своей работы столкнулся с искусственным интеллектом, живущим в сети компании. Об этом Лемуан рассказал общественности после того, как работодатель отправил его во временный оплачиваемый административный отпуск.

Подробности программист сообщил во время разговора с журналистами издания Washington Post. Корреспонденты узнали, что Лемуан был официально отстранен за нарушение политики конфиденциальности компании. Но он считает, что причина кроется глубже.

Чат-бот с искусственным интеллектом вряд ли является живым существом и «личностью». Фото: maxuser / shutterstock.com

Так, до описываемого события лишилась работы коллега Блейка, Маргарет Митчелл. Она была членом группы по этике искусственного интеллекта. Программист сообщил, что женщина также выражала обеспокоенность наличием признаков личности у ИИ. Причем Митчелл не единственная, кто лишился работы аналогичным образом.

Признаки личности чат-бота

Лемуан рассказал, что в процессе своей работы от взаимодействовал с искусственным интеллектом Google. А также обнаружил тот факт, что он очень похож на личность. То есть речь идет о системе Language Model for Dialogue Applications. Так как именно ее анонсировал поисковый гигант на прошедшей в прошлом году конференции.

Система LaMDA — это нейросеть, которая применяется для создания чат-ботов, которые общаются с пользователями голосом. То есть напрямую взаимодействуют с людьми.

Программист подготовил и представил руководству полноценный отчет, в котором изложил свои соображения. Если достоверно не знать, что общаешься с компьютером, можно принять эту нейросеть за ребенка возрастом 7 или 8 лет. Единственным отличием является то, что он слишком хорошо будет знать физику, считает Лемуан.

Мнение представителей Google

Руководство Google считает соображения своего инженера неубедительными. То есть, по словам Брайана Гэбриела, представителя компании, нет смысла антропоморфизировать компьютерные приложения. Так как они в любом случае не являются разумными.

Отчет Блейка Лемуана проанализирован специалистами по этике Google. Но собранные доказательства не подтверждают его выводы.

Читайте также:

Подпишитесь на наш Telegram
Получайте по 1 сообщению с главными новостями за день
Заглавное фото: sutadimages / shutterstock.com

Читайте также:

Обсуждение

Подписаться
Уведомить о
guest
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии