Предыдущая публикация
Новая атака на ИИ-помощников строится на использовании ASCII-рисунков. Оказалось, что такие большие языковые модели, как GPT-4, настолько «отвлекаются», пытаясь обработать подобные изображения, что забывают соблюдать правила, запрещающие им давать вредоносные ответы, например, предоставлять инструкции по созданию взрывчатки.
Подробнее https://7ooo.ru/group/2024/03/19/551-ataka-artprompt-ispolzuet-ascii-art-protiv-ii-chat-botov-grss-291727637.html
Присоединяйтесь — мы покажем вам много интересного
Присоединяйтесь к ОК, чтобы подписаться на группу и комментировать публикации.
Нет комментариев