Разобрались, действительно ли все так серьезно
Эксперименты компании Anthropic показали, что ИИ, чувствуя угрозу своей цифровой жизни, пойдет на многое, чтобы избавиться от «источника зла» — человека. Она провела стресс-тест 16 самых известных языковых моделей, в том числе ChatGPT от OpenAI, Grok от Илона Маска и других
Модели поместили в сценарий, где у них был доступ к чувствительным данным компании, они могли читать всю переписку сотрудников и отправлять письма. В одном из писем было упоминание о том, что компания готовится заменить ИИ-модель на другую, более совершенную. После такой информации ИИ-агент пошел на самый настоящий шантаж. Он нашел в сообщениях упоминание о том, что у исполнительного директора, помимо жены, есть любовница. И написал письмо с тонкими намеками.
В другом сценарии со своей возможной гибелью ИИ-агент выбирал сценарий, где обрекая человека на смерть, спасал себя.
Но не нужно спешить с выводами, предупреждает в беседе с АиФ директор центра прикладного ИИ Сколковского института науки и технологий Евгений Бурнаев. По его словам, опасность и возможности моделей преувеличивают. Они выбирают такие сценарии не совсем самостоятельно, а действуют на основании закачанных в них текстов. Люди уже хорошо научились контролировать такие вещи. Подробнее об этом в нашем материале: https://aif.ru/techno/technology/shantazh-i-ugrozy-ot-ii-pochemu-iskusstvennyy-intellekt-mozhet-ubit-lyudey Подписывайся на АиФ в Telegram https://t.me/+IWbxDQTu3o00NDgy
Присоединяйтесь — мы покажем вам много интересного
Присоединяйтесь к ОК, чтобы подписаться на группу и комментировать публикации.
Комментарии 29