Расистский скандал: алгоритм Facebook перепутал темнокожих людей с обезьянами
Теперь о соцсети Facebook можно говорить, что у нее проблемы с интеллектом — с искусственным. «Глюки» в системе распознавания лиц стали причиной скандала с расистским уклоном. Сервис FB Watch предлагал пользователям «ещё видео о приматах» всем пользователям, которые смотрели ролики, где фигурировали темнокожие.
Читайте также: Facebook отфильтрует фейки от фактов на федеральных выборах-2021 в Германии
Об инциденте сообщили несколько мировых СМИ, в частности New York Times и британский таблоид Daily Mail. Сбои в системе обнаружили на видео под названием «Белый мужчина вызывает полицию по поводу чернокожих в порту», опубликованном на FB-страничке Daily Mail. Но потом выяснилось, что программа работала с ошибками и на других аналогичных видео. Пресс-секретарь Facebook подтвердила существующую проблему с распознаванием лиц.
«Это была явно недопустимая ошибка. Мы приносим свои извинения всем, кто видел эти оскорбительные рекомендации», – заявила спикер компании, отметив, что программное обеспечение, спровоцировавшее ошибку, было немедленно удалено из Сети. Это произошло вечером в пятницу, 3 сентября, в разгар скандала.
Эта история приобрела огласку после того, как бывшая сотрудница Facebook, менеджер по дизайну Дарси Гроувс, получила от подруги скриншот со скандальным сообщением о приматах. При этом видероролик демонстрировал стычки чернокожих мужчин с белыми гражданскими лицами и полицейскими, и с приматами происходящее никак не было связано.
Гроувс разместила скрин на форуме комментариев к продуктам для нынешних и бывших сотрудников Facebook. В ответ менеджер по Facebook Watch назвал случившееся «неприемлемым» и сказал, что компания «исследует первопричину».
«Ряд инцидентов показал, что решение проблем расизма не является приоритетом для руководства компании. Facebook не может продолжать делать ошибки и просто извиняться», – заявила бывшая сотрудница в комментарии New York Times.
Facebook использует различные формы искусственного интеллекта для персонализации контента, отображаемого для пользователей. Также алгоритмы соцсети применяют программное обеспечение для распознавания лиц. Однако правозащитники — как европейские, так и американские — уже давно указывают на проблемы с корректностью работы.
Много проблем у пользователей возникает также из-за модерации контента, во время которой тоже применяется искусственный интеллект. Это нужно, например, для распознавания и блокировки проблемных сообщений и изображений. Однако в этой сфере также не обходится без «глюков». Например, осенью 2020 года Facebook заблокировал фото луковиц на страничке фермера, так как округлости овощей показались нейросети «слишком откровенным контентом».
Читайте также:
- На кону усы Гитлера: в Германии спорят из-за свастики в видеоиграх
- Спортивный директор BDR Мостер устроил на Олимпиаде расистский скандал