Как обеспечить безопасность в условиях стремительного развития искусственного интеллекта? Этому вопросу посвящена конференция высокого уровня, проходящая в Англии.

Саммит по безопасности искусственного интеллекта:Министр технологий Великобритании Мишель Донелан (справа) приветствует Фолькера Виссинга (СвДП), министра по цифровым технологиям и транспорту, на саммите по безопасности ИИ.

Виссинг на саммите по безопасности: акцент на возможностях искусственного интеллекта

В начале международного саммита по безопасности искусственного интеллекта (ИИ), проходящего в Великобритании, министр цифровых технологий Фолькер Виссинг предостерег от того, чтобы упустить из виду возможности, которые открывает эта технология. 

По его словам, в связи с этим он выступил за разработку кодекса поведения, который стал бы связующим звеном между европейскими и американскими правилами. «Разработчикам ИИ и компаниям по обе стороны Атлантики необходима скорейшая правовая определенность, – говорится в заявлении политика СвДП. ЕС должен еще более четко сфокусироваться на возможностях, которые открывает новая технология, иначе есть риск проиграть, продолжил Виссинг.

Конференция в Милтон Кейнс (Англия), в которой в среду приняли участие представители почти 30 государств, в том числе Китая, а также крупнейших технологических компаний, считается первым шагом на пути к достижению международного взаимопонимания по вопросам регулирования быстро развивающегося сектора. Однако усилия по установлению стандартов предпринимаются и в рамках государств «Большой семерки», а также в США и ЕС. 

В четверг на саммите в Англии, помимо премьер-министра Великобритании Риши Сунака, планируют присутствовать министр экономики Роберт Хабек («зеленые»), глава Комиссии ЕС Урсула фон дер Ляйен и вице-президент США Камала Харрис. Технологический миллиардер Элон Маск, уже прибывший на конференцию в среду, предупредил, что искусственный интеллект представляет собой одну из самых больших угроз для человечества.

Однако Харрис, выступая в среду в посольстве США в Лондоне, призвала людей помнить обо всем спектре рисков, связанных с ИИ, а не только о потенциальной опасности кибератак или биологического оружия. В качестве примера она привела потерю медицинской страховки пожилыми людьми из-за ошибок в алгоритмах ИИ или шантаж людей с помощью глубоко подделанной порнографии или ложное заключение в тюрьму из-за распознавания ИИ лиц.

Подпишитесь на наш Telegram
Получайте по 1 сообщению с главными новостями за день
Заглавное фото: Doug Peters/PA Wire/dpa
Источник: dpa

Читайте также:

Обсуждение

Подписаться
Уведомить о
guest
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии