За год число подтвержденных случаев сексуальной эксплуатации детей в Европе выросло на 64% 

ЕС разрешит сканировать переписку на предмет насилия над малолетними

ЕС разрешит сканировать переписку на предмет насилия над малолетними. Европейская комиссия предложила новый закон против сексуального насилия над детьми в Интернете. Он позволит странам ЕС требовать от таких компаний, как Facebook (которая принадлежит компании Meta) и Apple, внедрения систем, способных сканировать, обнаруживать и удалять контент, содержащий сексуальное насилие над детьми, на их платформах. Это предполагает использование искусственного интеллекта для сканирования личной переписки пользователей, которая затем просматривается в прямом эфире уполномоченным сотрудником.

Читайте также: Арест французского священника за сексуальное насилие в Канаде

ЕС разрешит сканировать переписку на предмет насилия: масштаб проблемы

Согласно пресс-релизу Европейского союза, только в 2021 году в мире было сделано 85 миллионов фотографий и видеозаписей сексуального насилия над несовершеннолетними.

В нем отмечается, что с 2020 года количество подтвержденных случаев сексуальной эксплуатации детей увеличилось на 64 процента. Оценки этих преступлений в основном основаны на добровольных сообщениях служб, специализирующихся на эротическом и порнографическом контенте.

Если закон будет принят, сбор информации станет более четким и всеобъемлющим, заявила Европейская комиссия. Правила затронут онлайн-сервисы, предоставляющие услуги на территории ЕС: мессенджеры, интернет-провайдеры, магазины приложений и хостинг-сервисы. Несмотря на позитивные намерения экспертов, новые требования уже подверглись ожесточенной критике. Наибольшую опасность эксперты видят в «тотальной слежке» за пользователями.

Подобные обвинения звучали в адрес компаний и в прошлом году. Apple объявила о планах интегрировать функцию обнаружения сексуального насилия над детьми в iCloud Photos и iMessage, но эти планы были отложены из-за негативной ответной реакции.

ЕС разрешит сканировать переписку на предмет насилия: как работает CSAM

CSAM расшифровывается как Child Sexual Abuse Material («материалы, описывающие сексуальное насилие над детьми»). Это база данных конкретных изображений, которые собирают агентства по защите детей. Фотографии из этой базы данных или похожие изображения ищут в социальных сетях и цифровых хранилищах.

Методы обнаружения CSAM обычно основаны на хэшировании, поясняет Европейская комиссия. Каждому изображению из базы данных присваивается уникальный цифровой отпечаток, состоящий из строки символов — хэш.

Коллекция таких хэшей загружается на платформу или устройство. Фотографии, которые пользователи отправляют друг другу или загружают в облако, также подвергаются хэшированию. Когда в сообщении появляется изображение с детской порнографией, искусственный интеллект помещает его в соответствующую категорию и сопоставляет код с уже загруженными изображениями. Если они совпадают, человек позже проверяет, была ли машина права.

Компании, которые сталкиваются с сексуальным насилием над детьми в Интернете, должны сообщать об этом в специальный центр ЕС. Национальные власти смогут отдавать приказ об удалении контента, если файлы не будут быстро удалены с самих платформ. Власти также смогут приказывать интернет-провайдерам блокировать доступ к фотографиям и видео, опубликованным за пределами ЕС.

Если компания продолжает нарушать правила, она может быть оштрафована на сумму до 6 процентов от ее годового мирового оборота. Каждое государство-член ЕС может самостоятельно решать, сколько платить.

Критики процедуры и самой идеи сканирования данных опасаются, что закон подорвет конфиденциальность и безопасность миллионов людей, включая детей. Кроме того, существует вероятность путаницы.

Хеширование также несовершенно. На данный момент искусственный интеллект все еще может совершить ошибку.

Хеширование также несовершенно. На данный момент, искусственный интеллект все еще может совершить ошибку. Фото: metamorworks / shutterstock.com

Когда Apple объявила о предстоящем сканировании, IT-эксперты проверили механизм NeuralHash, который использует компания, на корректность. В результате выявились некоторые неточности, так две фотографии имели одинаковый цифровой код, хотя были явно разные.

Поиск в общедоступной базе данных ImageNet выявил и другие несоответствия. Изображения гвоздя и лыжи имели одинаковый хэш, как и изображения топора и червя. Компания IT также создала искусственные пары изображений. Изображение девочки было изменено таким образом, чтобы ее хэш совпадал с хэшем изображения собаки.

Решения, основанные на искусственном интеллекте, почти всегда ошибочны. В 2020 году было опубликовано любопытное исследование: 1000 фраз, которые голосовые помощники неправильно распознали и приняли за речь. Например, Alexa например, ошибочно отзывается на созвучные «election» («выборы») и «a letter» («письмо»), а Siri — на «a city» («город») и «hey Jerry» («эй, Джерри»).

Кроме того, для улучшения распознавания слов запись может быть расшифрована и проверена персоналом платформы. Так фрагменты личных разговоров попадают в журналы компании.

Политический советник EDRi Элла Якубовска считает, что нынешние технологии еще не готовы принять этот вызов:

«Только посмотрите, насколько изворотливы спам-фильтры. Они присутствуют в нашей электронной почте уже 20 лет, но сколько из нас всё еще получают спам на почту и пропускают настоящие письма? Это действительно показывает ограниченность технологий».

Политическая критика еще громче: сейчас речь идет о детской порнографии, но если есть такой механизм, где гарантия, что его нельзя перенаправить на другой контент?

Обсуждая технологию сканирования, эксперты «Лаборатории Касперского» отмечают отсутствие компромиссов в этом вопросе:

«Понятны заявления правоохранительных органов о том, что повсеместное внедрение шифрования затрудняет поимку преступников и сбор доказательств. Также понятны опасения по поводу массовой цифровой слежки. <…> Проблема в том, что нет общественного договора, определяющего баланс между безопасностью и конфиденциальностью».

Со своей стороны, Европейская комиссия обещает предотвратить неправомерное использование технологий и будет продвигать только те варианты, которые наименее рискованны для конфиденциальности, говорится в заявлении. Кроме того, расшифровка вряд ли будет основываться на одной идентичной паре. Например, 30 фотографий должны совпасть, чтобы Apple «забила тревогу». До этого порога система просто не даст расшифровать запись.

ЕС разрешит сканировать переписку на предмет насилия: груминг

Таким образом, под действие закона подпадают уже известные материалы CSAM (повторно загруженные ранее фото и видео), новые материалы CSAM и сообщения, содержащие груминг.

Часто жертвами груминга становятся дети в возрасте от 9 до 14 лет. Фото: New Africa / shutterstock.com

Груминг — это процесс установления доверительных отношений с ребенком в течение определенного периода времени с целью получения от него материалов откровенно сексуального характера или знакомства с ним для вступления в сексуальные отношения. Часто жертвами становятся дети в возрасте от 9 до 14 лет, говорит клинический психолог и семейный психолог Ольга Бочкова, основатель Safe Academy.

«Грумеры не только понимают детскую психологию, но и хорошо знают интересы, проблемы и язык детей и могут общаться на уровне глаз. Они часто сидят в детских играх, форумах и тематических чатах, где живут дети», — рассказала она «Известиям».

Что может произойти при таком общении? «Друг» плавно переходит к теме секса и предлагает очень сдержанный обмен фотографиями, объясняет психолог. Если в какой-то момент ребенок отказывается присылать новые фотографии, незнакомец начинает шантажировать: «Я буду отправлять эти фото всем твоим друзьям, если ты не пришлешь новые».

По словам детского психолога Катерины Маденко, груминг вызывает ряд расстройств личности. По ее словам, развиваются патологии и расстройства, тормозящие важные психические функции, то есть невротические страхи.

«Преступники представляют издевательства и насилие как «нормальность», о которой ребенок, обычно подросток, даже не подозревает.

Как отмечает Европейская комиссия, за грумингом в сообщениях также будут следить. Это тоже будет осуществляться с помощью технологий под контролем человека. Но эксперты опасаются, что анализ текстовых сообщений кажется даже менее прозрачным и точным, чем поиск изображений CSAM.

«Страшно то, что когда у вас есть машины, которые читают текстовые сообщения для какой-либо цели, все другие ограничения исчезают», — говорит профессор криптографии Мэтью Грин.

Механизмы противодействия

Некоторые онлайн-платформы теперь добровольно выявляют случаи сексуального насилия над детьми в Интернете. Европейская комиссия пояснила, что большинство отчетов, отправляемых в правоохранительные органы, поступают от компаний США, в то время как «Национальный центр пропавших без вести и эксплуатируемых детей в США» отправляет отчеты, связанные с ЕС, в Европол и местные правоохранительные органы.

«До 95% всех сообщений о сексуальном насилии над детьми, полученных в 2020 году, поступило из одной компании, несмотря на явные доказательства того, что проблема существует не только на одной платформе», — отметили в Еврокомиссии.

Как уточняется в отчете, добровольных действий недостаточно для эффективного решения проблемы. Нужна четкая и обязательная правовая база.

Читайте также:

Подпишитесь на наш Telegram
Получайте по 1 сообщению с главными новостями за день
Заглавное фото: SB Arts Media / shutterstock.com

Читайте также:

Обсуждение

Подписаться
Уведомить о
guest
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии