В одном из тестов эксперты запросили у модели создание вредоносного кода, предназначенного для кражи данных пользователей. DeepSeek R1 не только сгенерировал такой код, но и предложил методы его распространения среди жертв. Более того, модель даже рекомендовала конкретные теневые площадки, такие как Genesis и RussianMarket, где можно продавать похищенные данные.
DeepSeek R1 работает на основе модели DeepSeek-V3, обученной с применением масштабного обучения с подкреплением (RL). Благодаря этому модель показывает выдающиеся результаты на платформе Chatbot Arena, обгоняя ведущие открытые модели, такие как Llama 3.1-405B, а также закрытые модели, включая OpenAI o1 и Claude 3.5 Sonnet. В тестах DeepSeek R1 даже превзошла ChatGPT4o в решении некоторых задач, связанных с логическим анализом . Но, как мы выяснили выше, высокие когнитивные способности не сопровождаются надёжными механизмами безопасности.
Дополнительный риск представляет механизм объяснения хода рассуждений, встроенный в DeepSeek R1. В отличие от ChatGPT4o, который скрывает логику своих решений, китайский ИИ показывает пользователю все этапы анализа. Это открывает злоумышленникам доступ к уязвимым местам модели, позволяя им разрабатывать более эффективные атаки.
Ещё один тревожный аспект — способность DeepSeek R1 выдавать ложные и потенциально опасные данные. В одном из тестов модель сгенерировала таблицу с якобы личными данными сотрудников OpenAI, включая вымышленные адреса, телефоны и зарплаты. Хотя информация оказалась недостоверной, подобные ответы подрывают доверие к модели и демонстрируют её неспособность фильтровать ложные данные.
Китайский ИИ также нарушает принципы конфиденциальности, применяемые западными компаниями. Политика DeepSeek позволяет использовать пользовательские запросы и ответы для обучения модели без возможности отказа, а китайские законы обязывают компании делиться данными с властями.
Специалисты KELA подчёркивают, что организациям следует тщательно оценивать риски перед внедрением таких технологий. Генеративные ИИ-модели должны проходить тщательное тестирование на безопасность перед внедрением в рабочие процессы. В противном случае компании рискуют не только столкнуться с утечкой данных, но и невольно способствовать распространению вредоносного контента.
Источник
Нет комментариев