Алгоритм подачи семей

На платформе Instagram все чаще появляются откровенные фотографии и видео детей, которые часто выкладывают сами родители.:На платформе Instagram все чаще появляются откровенные фотографии и видео детей, которые часто выкладывают сами родители.

Почему Instagram предлагает сексуальный контент

На самом деле Instagram – безобидная фотоплатформа. Однако алгоритм выдает токсичную смесь и, по всей видимости, показывает сексуальный контент детей, которых вообще не должно быть на платформе.

Весной 2010 года два выпускника Стэнфорда Кевин Систром и Майк Кригер работали над созданием фотосервиса в Сан-Франциско. Спустя несколько месяцев было запущено приложение Instagram. Оно пользовалось огромной популярностью, тысячи людей скачивали его в течение нескольких часов. Компьютерные системы снова и снова давали сбои. В 2012 году компания Facebook купила Instagram за один миллиард долларов США.

Сегодня в Instagram зарегистрировано два миллиарда человек по всему миру. Фотоприложение является четвертой по величине социальной сетью после Facebook, YouTube и WhatsApp. Теперь это не только фотосообщество: с 2013 года в Instagram можно загружать и видео. В 2020 году появились ролики – короткие клипы с эффектами, как на Tiktok. 

С 2016 года Instagram больше не отображает посты в хронологическом порядке, а использует алгоритм. Теперь это становится недостатком платформы. Ведь благодаря ему в ленту попадают сексуализированные ролики с детьми. Это обнаружили журналисты из «Уолл-стрит джорнэл» (WSJ). Они использовали тестовые аккаунты, чтобы следить за молодыми спортсменами, подростками и влиятельными людьми. А также пользователей, которые следили за этими молодыми девушками. В результате получилась токсичная смесь сексуализированного контента с несовершеннолетними и порнографии для взрослых.

Компании прекращают размещение рекламы в Instagram

Для Юргена Пфеффера, профессора по защите детей на социальных медиаплатформах в Техническом университете Мюнхена, это не удивительно. В конце концов, так работает сеть: мы видим то, что, по мнению Instagram, хотим видеть. «Если вы не интересуетесь этими темами, то вполне возможно, что вы можете провести годы в социальных сетях, не видя проблемного контента», – говорит Пфеффер в подкасте ntv «Wieder was gelernt».

Только с июля по сентябрьFacebook удалил 16,9 миллиона единиц контента, связанного с сексуальной эксплуатацией детей, что в два раза больше, чем в предыдущем квартале. По словам эксперта, от десяти до двадцати процентов контента X связано с порнографией. Бывший Twitter – единственная крупная платформа, где это не запрещено.

Согласно исследованию WSJ, развратные видео перемежаются рекламой крупных брендов, таких как Disney, Walmart, Tinder и сам Wall Street Journal, которые относятся к ним без особого энтузиазма. Некоторые из них, например родительская компания Tinder, Match Group, в результате прекратили размещение своей рекламы в роликах Instagram.

«Строгие правила для обнаженной натуры»

Родительская компания Meta, похоже, уже давно знает о проблеме. Однако представительница Meta ответила на запрос ntv.de об интервью только письменно: «Мы не допускаем в Instagram контент, связанный с насилием над детьми и угрозой их жизни, и придерживаемся строгих правил в отношении изображения детей в обнаженном виде», – пишет она в электронном письме. «Мы удаляем контент, который явно сексуализирует детей. Более тонкие формы сексуализации, такие как размещение изображений детей в сочетании с неуместными комментариями, также будут удаляться».

По словам Instagram, он использует сопоставление фотографий, чтобы отсеять изображения и контент, представляющие опасность для детей. Это касается, например, фотографий с обнаженными детьми. Он автоматически сканирует все изображения и при необходимости удаляет их. Тем не менее, на Instagram и других социальных платформах остается много детского контента, которого там быть не должно в соответствии с правилами защиты несовершеннолетних или рекомендациями.

Одна из причин этого заключается в том, что автоматизированным системам сложнее анализировать видеоконтент, чем текст или неподвижные изображения, пишет WSJ. Еще сложнее с роликами, поскольку они показывают контент за пределами круга друзей пользователя – из источников, за которыми он не следит. Сотрудники Meta беспокоились о безопасности еще до введения Reels 2020.

Алгоритм нуждается в обучении

Instagram отфильтровывает проблемный контент с помощью искусственного интеллекта и машинного обучения, объясняет в подкасте Ангелина Фоггенрайтер, научный сотрудник Технического университета Мюнхена. «Однако для этого алгоритму сначала нужен тестовый набор с достаточным количеством данных, чтобы показать, каких изображений там быть не должно». Однако с детской порнографией это особенно сложно. Это связано с тем, что такие данные не всегда доступны в таком количестве, особенно на начальном этапе. 

Системы хорошо распознают обнаженную натуру, «но когда речь идет о полуодетых детях, отфильтровать их автоматически очень и очень сложно», – объясняет Фоггенрайтер. Платформы во многом зависят от других пользователей, сообщающих о таком контенте, но они перегружены большим количеством таких сообщений и не могут удалять их немедленно».

Помимо того, что автоматическим системам сложнее анализировать видеоконтент, чем текст или неподвижные изображения, платформы социальных сетей имеют все возможности для монетизации такого контента: Пользователи должны проводить с ними как можно больше времени. Опыт показывает, что при просмотре движущихся изображений они остаются на экране дольше, чем при просмотре текста или фотографий. За это время можно показать больше рекламы, которая приносит больше денег.

Сотрудникам не разрешается менять алгоритм

Instagram также оптимизировал свой алгоритм, чтобы предлагать пользователям видео, соответствующие их интересам или ранее просмотренному контенту. Так что если вы часто смотрите на молодых девушек или женщин в бикини, вам будут предложены похожие видео. Бесконечный поток, который продолжается до тех пор, пока вы не начнете активно искать другой контент или пока эти алгоритмы рекомендаций не будут «существенно» изменены. Но это не то, чего хочет Мета, рассказали WSJ нынешние и бывшие сотрудники Instagram. Чтобы не потерять пользователей, как объясняется в отчете.

Технически это не проблема, говорит профессор социальных медиа Юрген Пфеффер. «Вы когда-нибудь пытались посмотреть голы с последней игры вашего любимого клуба Бундеслиги на YouTube? Скорее всего, вы их не найдете, потому что за медиакомпаниями стоят сильные законы об авторском праве. Это очень хорошо работает, чтобы скрыть контент, который вы не должны видеть». Решением проблемы может стать более эффективное регулирование на европейском уровне.

Возраст пользователей не проверяется

Еще одно слабое место Instagram – возраст пользователей. На самом деле вам не разрешается регистрироваться до 13 лет. На самом деле на платформе, вероятно, миллионы детей. Это происходит потому, что, хотя при регистрации детей просят правильно указать свой возраст, он не проверяется. После регистрации они могут свободно перемещаться по платформе. Только когда они сами загружают контент, им приходится подтверждать свой возраст, говорит эксперт Фоггенрайтер. Однако это сложно и редко соблюдается. 

Считается, что Meta знала об этой проблеме в течение многих лет, но игнорировала ее. В связи с этим десятки американских штатов подали на компанию в суд. Согласно исковому заявлению, Instagram намеренно заманивал детей на свою платформу. А также собирал личные данные, такие как их местоположение или адреса электронной почты. Даже если родители не давали своего согласия – что вообще-то является обязательным.

Для Пфеффера это не стало сюрпризом. Ведь количество пользователей – самый важный «товар» для таких компаний, как Meta. «Ключевым показателем для биржевой цены платформ является количество новых пользователей в месяц, – анализирует эксперт по социальным сетям в подкасте. Мониторинг сотен тысяч новых аккаунтов в Instagram каждый день был бы дорогостоящим и отнимал бы много времени. Задержка в процессе регистрации может сказаться на успехе компании».

Несмотря на всю обоснованную критику в адрес Meta, эксперты видят и другую, гораздо более серьезную проблему Instagram: Семейные агенты влияния. Это родители, которые демонстрируют своих детей на своих аккаунтах, иногда полуобнаженных, в подгузниках и бикини. Они подпитывают алгоритм этими изображениями и видео и предоставляют педосексуальным пользователям новый «материал» для их фантазий.

Читайте также:

Источник: www.ntv.de

Подпишитесь на наш Telegram
Получайте по 1 сообщению с главными новостями за день

Читайте также:

Обсуждение

Подписаться
Уведомить о
guest
0 комментариев
Старые
Новые Популярные
Межтекстовые Отзывы
Посмотреть все комментарии