Исследование благотворительного фонда Molly Rose Foundation показало, что алгоритмы Instagram* и TikTok после взаимодействия с подобными публикациями начали массово предлагать вредоносный контент аккаунтам, созданным под видом 15-летней девочки.
Порядка 97% рекомендуемых видео в Instagram* Reels и 96% в TikTok носили вредоносный характер, следует из анализа. Более половины таких материалов на TikTok содержали упоминания о суициде или самоповреждениях, а часть роликов включала описания методов, ранее неизвестных исследователям. Популярность подобных публикаций была значительной: одно из десяти видео в TikTok набрало свыше миллиона отметок «нравится», а каждое пятое на Instagram* Reels – более 250 тысяч.
Глава фонда Энди Берроуз заявил, что меры, предложенные британским регулятором Ofcom, не способны эффективно противостоять алгоритмам, и правительству следует ввести гораздо более жесткие правила.
Несмотря на ограничения поиска по хэштегам, системы персонализированных рекомендаций усиливают распространение опасного контента, а сами платформы используют слишком узкие определения вреда, следует из отчета.
Ofcom сообщил, что новые нормы уже вступили в силу и впервые обязали компании контролировать алгоритмы. Ведомство расследует работу 45 сайтов.
Журналист, член Совета при Президенте РФ по развитию гражданского общества и правам человека Александр Малькевич и председатель Альянса по защите детей в цифровой среде Елизавета Белякова прокомментировали взаимодействие западных площадок с государством.
* Компания-владелец Meta признана экстремистской и запрещена в РФ
#IT_News #интернет #платформы
Присоединяйтесь — мы покажем вам много интересного
Присоединяйтесь к ОК, чтобы подписаться на группу и комментировать публикации.
Комментарии 3