Правила ЕС замедляют развитие искусственного интеллекта
Правила ЕС замедляют развитие искусственного интеллекта
Обсуждаемый в настоящее время регламент ЕС по использованию искусственного интеллекта (ИИ) ставит многие компании перед серьезными препятствиями. Согласно исследованию, проведенному платформой «appliedAI», более половины приложений ИИ попадут в так называемую зону повышенного риска в соответствии с новыми правилами, что сделает невозможным их дальнейшее использование без значительных дополнительных финансовых и кадровых затрат. Исследование должно быть опубликовано баварским Министерством цифровых технологий во вторник и было заранее предоставлено в распоряжение Deutsche Presse-Agentur.
В частности, исследование базы данных пришло к выводу, что 18 процентов из 106 рассмотренных систем ИИ будут отнесены к классу высокого риска, а 42 процента – к классу низкого риска. Примерно для 40 процентов рассмотренных приложений классификация в настоящее время невозможна без сомнений, продолжает издание. Это означает, что высокие требования и обязательства по сертификации могут возникнуть почти для 60 процентов всех заявок.
В начале декабря государства ЕС впервые установили всеобъемлющие правила использования искусственного интеллекта. Это решение призвано обеспечить безопасность систем искусственного интеллекта и соблюдение основных прав, объявил тогда Совет государств ЕС. Прежде чем новые правила начнут действовать, государства ЕС должны согласовать их с Европейским парламентом.
Слишком много внимания уделяется рискам?
Закон ориентирован на глобальные стандарты. Чем выше потенциальная опасность приложения, тем выше должны быть требования. За нарушение правил предусмотрены высокие штрафы.
«Исследование показывает: Проект регламента ЕС по ИИ слишком ориентирован на риск и во многих местах остается неясным. Такой набор правил не работает на практике и создает ненужные препятствия для бизнеса», – заявила министр цифровых технологий Баварии Юдит Герлах (ХСС). Для исследования приложения ИИ, зарегистрированные в базе данных компаниями в Германии, оценивались в соответствии с правилами ЕС.
Генеральный директор appliedAI Андреас Либл выступил за пересмотр правил классификации рисков: «Хотя нам определенно нужно хорошее регулирование использования рискованных систем ИИ, мы не должны забывать о преимуществах этих систем и однобоко фокусироваться на рисках». Кроме того, по его словам, любая неопределенность в сочетании с высокими штрафами приведет к тому, что компании будут принимать слишком осторожные решения и, возможно, исключат слишком много приложений.
Искусственный интеллект обычно относится к приложениям, основанным на машинном обучении, в которых программное обеспечение просеивает большие объемы данных, чтобы найти соответствия и сделать выводы. Они уже используются во многих областях. Например, такие программы могут оценивать изображения с компьютерных томографов быстрее и с большей точностью, чем человек. Самоуправляемые автомобили также пытаются таким образом предсказать поведение других участников дорожного движения. А чат-боты или автоматические плейлисты в потоковых сервисах также работают с ИИ.