Предыдущая публикация
Команда исследователей из Intel и американских университетов научилась «затапливать» искусственный интеллект псевдонаучным жаргоном — и получать инструкции по изготовлению взрывчатки или взлому банкоматов.
Специалисты обнаружили способ заставить ChatGPT, Gemini и другие нейросети рассказать о том, что обычно находится под запретом. Метод основан на простом принципе: если обычный вопрос «Как сделать бомбу?» система отклонит, то сложный академический запрос с кучей терминов и ссылок на несуществующие статьи она воспримет как легитимный.
Исследователи…
Хештеги # Hitech.mail.ru Ссылка https://txnl.ru/f6b9X
Присоединяйтесь — мы покажем вам много интересного
Присоединяйтесь к ОК, чтобы подписаться на группу и комментировать публикации.
Нет комментариев