Грустный TikTok: зачем алгоритм рекомендует опасный контент
Подростки, сообщающие о членовредительстве и высказывающие суицидальные мысли, становятся популярными. В тоже время TikTok критикуют за то, что он не принимает достаточных мер в отношении этих видео. Анализ данных BR показал, что несмотря на заявление TikTok о том, что он собирается что-то изменить, проблема сохраняется.
Читайте также: Приложение TikTok больше недоступно для россиян в App Store
Менее одной минуты — такова продолжительность многих видео на TikTok. Пользователи дают советы по макияжу, снимают своих питомцев или танцуют под музыку. Этот фейерверк впечатлений быстро захватывает пользователей и не дает им отпустить смартфон.
Одна из причин этого является алгоритм TikTok. Он решает, что пользователи увидят, в большей степени, чем другие социальные сети.
Алгоритм курирует самую важную часть приложения — ленту. Своеобразная персонализированная телевизионная программа. Об этом сообщает новостное агентство BR24.
PainTok или темная сторона TikTok
Это не вызывает проблем, когда пользователям, которые любят смотреть видео со щенками, показывают все больше и больше милых щенков. Когда они погружаются в проблемный контент, становится трудно. Потому что алгоритм наводняет ленту все большим количеством однотипных видео.
Пример грустного видео на платформе.
@ifellforhim0 everything about him. #fyp #sad #pain #him #imisshim #relationship #viral #paintok #ily #imtired ♬ that way slowed – vibe sounds
На TikTok, например, существует целый поджанр, в рамках которого молодые люди снимают видео о депрессии, членовредительстве или самоубийстве. Они говорят о психических проблемах, показывают шрамы от травм, которые они себе нанесли. А также высказывают мысли о самоубийстве.
В колонках комментариев другие пользователи часто сообщают о попытках самоубийства и членовредительствах. Кроме того, они дают друг другу советы о том, как утилизировать окровавленные носовые платки, чтобы родители их не нашли.
Таких видео на платформе бесчисленное множество. Некоторые из них удаляются через какое-то время, другие остаются в сети месяцами. Некоторые из них были просмотрены и понравились миллионы раз. Этот поджанр также называют PainTok.
В ходе эксперимента лента TikTok быстро адаптируется
Эксперимент, проведенный BR Data и PULS Reportage, показал, что пользователи из Германии могут попасть в пузырь фильтрации, взаимодействуя с такими видео. В нем они практически только получают этот контент с TikTok, рекомендованный в их ленте.
Для эксперимента журналисты из BR Data создали несколько тестовых аккаунтов. Также они смоделировали поведение людей, интересующихся видеороликами о депрессии, членовредительстве и суицидальных мыслях. Результат: через некоторое время лента состояла почти исключительно из такого контента.
Первый этап эксперимента заключался в поиске на платформе хэштегов, которые часто присваиваются таким видео. На втором этапе журналисты переключились на ленту «Для вас».
Если здесь показывали видео на эти темы, они смотрели его несколько раз. Ко всем остальным видео они переходили как можно быстрее. В фоновом режиме все данные были сохранены для последующей оценки.
Благодаря поиску по хэштегам и взаимодействию с видео, алгоритм был обучен предполагаемым интересам аккаунтов. Лента For You адаптировалась относительно быстро.
В среднем после примерно 150 видео каждое третье видео уже было отмечено хэштегом с такими темами, как грусть, депрессия, самоповреждение и суицидальные мысли. На практике это происходило примерно через 45 минут использования.
Если аккаунты продолжали взаимодействовать с этим контентом, милые щенки в конце концов полностью исчезали. Затем 70–85% ленты состояло из грустной музыки. А также разговоров молодых людей о психических заболеваниях или членовредительстве и депрессивных цитат, вводимых в кадр под цветное светодиодное освещение.
TikTok еще не выполнил свои обещания
В июле 2021 года газета Wallstreet Journal уже указывала на пузырь опасного контента, в который могут попасть пользователи. TikTok раскритиковал тот факт, что для исследования использовались автоматические аккаунты, то есть боты. Люди ведут себя по-другому и имеют более сложные интересы.
В статье в блоге от декабря 2021 года TikTok все же объявил, что будет работать над тем, чтобы сделать ленту более разнообразной. Особенно с контентом, который может иметь негативный эффект. Как показывает исследование BR, TikTok еще не выполнил большую часть этих обещаний.
Орестис Папакириакопулос (Orestis Papakyriakopoulos), изучающий алгоритмы в Принстонском университете, видит проблему платформ социальных сетей в целом в том, что они «не были разработаны для таких ситуаций».
«Нет различия между хорошей и плохой деятельностью. Их цель — чтобы пользователи проводили как можно больше времени на платформах», — объяснил он.
Как TikTok относится к удаленным видео
В своих «Правилах сообщества» TikTok запрещает размещать контент, «в котором рекламируется, пропагандируется, приравнивается к норме или прославляется самоубийство или членовредительство».
На вопрос BR, почему на платформе по-прежнему много контента, который, вероятно, нарушает правила платформы, TikTok ссылается на свою статистику удаленных видео. В нем говорится, что в последнем квартале 2021 года компания удалила более 85 млн видеороликов по всему миру. Для 6 млн видеороликов TikTok указывает «самоубийство, членовредительство и опасные действия» в качестве причины удаления.
Компания не ответила на дальнейшие вопросы BR. Например, что TikTok говорит об эффекте пузыря фильтра, проверяются ли разделы комментариев на несанкционированные высказывания? Помимо того, защищают ли алгоритмы рекомендаций несовершеннолетних от опасного контента?
Видеоролики TikTok могут спровоцировать самоповреждающее поведение
В рамках эксперимента BR Data и PULS Reportage также нашли видео, в которых конструктивно рассматриваются психические заболевания. Психотерапевт Анке Глассмайер (Anke Glaßmeyer) сама предоставляет информацию на эту тему в Instagram.
По ее словам, страждущим может помочь, если другие расскажут им о суицидальных фазах, которые они преодолели. Или предложат конкретную помощь. Однако она также рассказала, что если суицидальность является темой, то это зависит, прежде всего, от того, как о ней говорят.
«Чем более целенаправленно и подробно сообщается о самоубийствах, тем больше вероятность того, что это соблазнит людей копировать их», — объяснила она.
Говоря о результатах эксперимента, Глассмайер отметила: «Любой человек, который в настоящее время находится в психологически нестабильном состоянии, может быть спровоцирован подобным контентом на TikTok. Под этим подразумевается пусковой стимул, который невольно вызывает воспоминания и чувства прошлых травм и может привести к рецидиву».
Еще один ролик на платформе из разряда Paintok. В нем подросток объяснил, что не хочет обращаться за помощью, потому что его проблемы обесценивают.
@nameisaainr and then they ask why i dont trust them #fyp #paintok #mentalhealth #foryou ♬ original sound – Tik Toker
Как прошел эксперимент с человеком
В тоже время Свенья (Svenja) оценила эффект от этих видео на TikTok. Настоящее имя 19-летней девушки другое, и она хочет остаться неизвестной.
В подростковом возрасте она страдала от депрессии. С 14 лет она чувствовала себя все хуже и хуже и начала заниматься членовредительством. Суицидальные мысли стали более частыми.
Однажды Свенья даже пыталась покончить с собой. В настоящее время ее состояние стабильно, и она продолжает лечение. Девушка также видела эти видео на платформе.
«В каком-то смысле это до сих пор вызывает у меня раздражение, потому что есть много людей, которые совершили попытку самоубийства. Которые рассказывают о том, что они сделали. А также рассказывают о своем самоповреждении и показывают фотографии», — сказала Свенья.
В то же время она может дистанцироваться от такого контента. Но она считает, что «если вспомнить, что было три года назад — в такой ситуации нельзя дистанцироваться. Это может привести к смерти».
Бреймайер призывает внести изменения в алгоритм
Лени Браймайер (Leni Breymaier) (СДПГ), председатель комитета по вопросам семьи в Бундестаге, считает результаты эксперимента BR Data и PULS Reportage проблематичными.
«Проблема заключается в общей сумме видео. По принципу «я всегда получаю больше того же самого»», — сказала она.
Также Бреймайер считает TikTok ответственным за это. «Самоповреждение, депрессия, склонность к самоубийству: вот где я считаю желательным изменение алгоритмов, чтобы эти вещи не усиливались постоянно», — объяснила председатель.
В США генеральные прокуроры нескольких штатов, включая Калифорнию и Массачусетс, несколько недель назад начали расследование влияния TikTok. Их интересовало психическое здоровье детей и молодых людей.
И в ЕС тоже кое-что изменится в будущем. Закон о цифровых услугах обязывает крупные платформы, среди прочего, предлагать своим пользователям на выбор систему рекомендаций, не основанную на персональном профилировании.
Исследователь Папакириакопулос идет на шаг дальше. Он требует, чтобы платформы принципиально воздерживались от использования рекомендательных систем. Особенно для контента политического характера или о психических заболеваниях.
Помощь пострадавшим
Психотерапевт Глассмайер советует родителям пострадавших или находящихся под угрозой детей: «Стремитесь к диалогу. Спросите ребенка: «Что тебя беспокоит? Почему ты все время смотришь на это?». Важно серьезно относиться к поведению детей и подростков. Если я замечаю, что существуют действительно более глубокие причины, то начинаю психотерапию».
Согласно TikTok, в приложении есть опции, позволяющие влиять на показываемый контент. А именно через «Ограниченный режим», «Сопровождаемый режим» или функцию «Неинтересно».
Читайте также по теме:
- TikTok создал альтернативную вселенную специально для России
- TikTok использует фильтры слов в Германии
- Действительно ли хороша популярная в TikTok тренировка «12−3−30»?