Приложения ИИ используются во многих отраслях. Но их использование также может быть рискованным. Правила ЕС призваны обеспечить ответственное использование. Но они могут затормозить развитие технологии.

Правила ЕС замедляют развитие искусственного интеллекта

Правила ЕС замедляют развитие искусственного интеллекта

Обсуждаемый в настоящее время регламент ЕС по использованию искусственного интеллекта (ИИ) ставит многие компании перед серьезными препятствиями. Согласно исследованию, проведенному платформой «appliedAI», более половины приложений ИИ попадут в так называемую зону повышенного риска в соответствии с новыми правилами, что сделает невозможным их дальнейшее использование без значительных дополнительных финансовых и кадровых затрат. Исследование должно быть опубликовано баварским Министерством цифровых технологий во вторник и было заранее предоставлено в распоряжение Deutsche Presse-Agentur.

В частности, исследование базы данных пришло к выводу, что 18 процентов из 106 рассмотренных систем ИИ будут отнесены к классу высокого риска, а 42 процента – к классу низкого риска. Примерно для 40 процентов рассмотренных приложений классификация в настоящее время невозможна без сомнений, продолжает издание. Это означает, что высокие требования и обязательства по сертификации могут возникнуть почти для 60 процентов всех заявок.

В начале декабря государства ЕС впервые установили всеобъемлющие правила использования искусственного интеллекта. Это решение призвано обеспечить безопасность систем искусственного интеллекта и соблюдение основных прав, объявил тогда Совет государств ЕС. Прежде чем новые правила начнут действовать, государства ЕС должны согласовать их с Европейским парламентом.

Слишком много внимания уделяется рискам?

Закон ориентирован на глобальные стандарты. Чем выше потенциальная опасность приложения, тем выше должны быть требования. За нарушение правил предусмотрены высокие штрафы.

«Исследование показывает: Проект регламента ЕС по ИИ слишком ориентирован на риск и во многих местах остается неясным. Такой набор правил не работает на практике и создает ненужные препятствия для бизнеса», – заявила министр цифровых технологий Баварии Юдит Герлах (ХСС). Для исследования приложения ИИ, зарегистрированные в базе данных компаниями в Германии, оценивались в соответствии с правилами ЕС.

Генеральный директор appliedAI Андреас Либл выступил за пересмотр правил классификации рисков: «Хотя нам определенно нужно хорошее регулирование использования рискованных систем ИИ, мы не должны забывать о преимуществах этих систем и однобоко фокусироваться на рисках». Кроме того, по его словам, любая неопределенность в сочетании с высокими штрафами приведет к тому, что компании будут принимать слишком осторожные решения и, возможно, исключат слишком много приложений.

Искусственный интеллект обычно относится к приложениям, основанным на машинном обучении, в которых программное обеспечение просеивает большие объемы данных, чтобы найти соответствия и сделать выводы. Они уже используются во многих областях. Например, такие программы могут оценивать изображения с компьютерных томографов быстрее и с большей точностью, чем человек. Самоуправляемые автомобили также пытаются таким образом предсказать поведение других участников дорожного движения. А чат-боты или автоматические плейлисты в потоковых сервисах также работают с ИИ.

Подпишитесь на наш Telegram
Получайте по 1 сообщению с главными новостями за день
Заглавное фото: Karl-Josef Hildenbrand/dpa
Источник: dpa

Читайте также:

Обсуждение

Подписаться
Уведомить о
guest
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии