Фото: Westend61 RF / Rainer Berg / Diomedia
Компания Google внедрила программу, которая находит и блокирует видео с шокирующим контентом на главной странице сайта и приложения YouTube. Об этом в четверг, 23 мая, сообщает Bloomberg со ссылкой на три источника, знакомые с разработкой.
По данным собеседников издания, программа, известная в компании как trashy video classifier, работает на базе искусственного интеллекта. Как пояснил Bloomberg бывший сотрудник YouTube, классификатор начали тестировать еще в 2015 году, однако запустили его только после серии инцидентов Elsagate в 2017 году, когда на видеохостинге появилось большое число низкокачественных роликов для детей, которые содержали сцены насилия, нарушали авторское право и при этом не блокировались при помощи фильтров родительского контроля. Тогда массовое появление подобного контента вызвало недовольство рекламодателей и привело к бойкотированию YouTube с их стороны.
Представитель Google подтвердил, что компания действительно использует специальный классификатор, который просматривает ролики на домашней странице YouTube и панели с рекомендациями. Программа анализирует жалобы пользователей на видео, а также другие данные, в частности, количество лайков и дизлайков под роликами. В результате внедрения системы видеохостинг получил возможность регулировать распространение шокирующего контента, отмечает Bloomberg.
При этом, пишет издание, многие бывшие и нынешние сотрудники YouTube считают, что компания обращает внимание на подобные проблемы, только когда ей начинают угрожать финансовые потери или под внешним давлением (как в случае с распространением роликов экстремистского характера).
В январе сообщалось, что администрация YouTube запретила публиковать на платформе ролики с угрожающими жизни пранками и челленджами. Кроме того, видеохостинг запретил использовать в качестве миниатюр к видео картинки вопиющего содержания, например, порнографию или сцены насилия, а также размещать в роликах внешние ссылки на сайты с порнографией и насилием.