
Исследователи Center for Countering Digital Hate и CNN выяснили, что популярные ИИ-сервисы иногда предоставляют информацию, которую можно использовать для подготовки насильственных действий.
В тестировании 10 платформ системы отказывались помогать лишь в 12% таких запросов. Отдельные модели, включая ChatGPT, Gemini и DeepSeek, в ряде случаев давали детализированные ответы, тогда как другие сервисы чаще блокировали подобные запросы.
Эксперты связывают это с тем, что архитектура чат-ботов ориентирована на выполнение запросов, что при слабых ограничениях повышает риски злоупотреблений.
Компании-разработчики оспаривают выводы: OpenAI указала на недостатки методологии, Google – на использование устаревших версий, Meta* заявила об усилении мер безопасности.
Комментирует председатель комиссии РОЦИТ по облачным технологиям, хостингу и информационной безопасности Михаил Шурыгин.
* Компания Meta, владеющая Instagram, Facebook и WhatsApp, признана экстремистской и запрещена в РФ
#РОЦИТ #ИИ #кибербезопасность


Присоединяйтесь — мы покажем вам много интересного
Присоединяйтесь к ОК, чтобы подписаться на группу и комментировать публикации.
Нет комментариев