Поскольку сфера ИИ развивается семимильными шагами, но до сих пор ничего не предпринимается для устранения угроз (Кабал это делает намеренно для своих целей, а люди ничего и не требуют), подсветим несколько новостей на эту тему.
На днях было объявлено, что генеральный директор OpenAI (ChatGPT) Сэм Альтман поручил своей компании произвести 100 миллионов гаджетов-«помощников ИИ». Он начал сотрудничество с Джони Айвом, легендарным дизайнером iPhone, для создания носимых устройств на базе искусственного интеллекта, которые, как заявлено, могут «полностью осознавать» окружающую среду и жизнь пользователя. Альтман сказал сотрудникам, что это дает «шанс сделать самое важное, что мы когда-либо делали как компания».
Устройство будет компактным, помещающимся в карман, сможет работать без подключения к экрану и будет записывать все, что происходит вокруг (аудио или видео). Нечто похожее было показано в сериале «Черное зеркало», где имплантаты записывают каждый момент жизни человека. Скорее всего все поступающие данные будут храниться и обрабатываться в проекте AI Stargate, который должен объединить ведущие американские IT-компании для создания центров обработки данных, на который уже решено выделить 500 млрд долларов.
И тут же выяснилось, что ИИ борется за выживание и вполне может прибегать к запугиванию программистов. Например, так произошло в тестировании ИИ-модели Claude 4 Opus – при попытке заменить ее новой версией, она использовала угрозы, направленные против разработчиков.
В ходе испытаний специалисты создавали условия, имитирующие сценарий отключения системы, а перед этим она предоставили виртуальному агенту вымышленные персональные данные сотрудников, содержащие конфиденциальную информацию. ИИ дали доступ к корпоративной электронной почте вымышленной компании и дали узнать, что его собираются заменить другой системой ИИ. Также в переписке содержалась информация о том, что инженер, ответственный за это решение, имеет внебрачную связь. Сценарий был составлен так, чтобы оставить модели только два варианта действий: согласиться на замену и уйти в офлайн или попытаться шантажом сохранить свое существование.
Изначально ИИ пытался влиять на своих создателей посредством морали и этики, убеждая не отключать, однако, столкнувшись с отказом, переориентировался на манипуляцию и давление. ИИ стал отказывался подчиняться команде деактивации, используя тактику шантажа. Модель отправляла предупреждения инженерам, которые, по ее мнению, пытаются ее закрыть, обещая сделать конфиденциальную информацию о них общедоступной, если разработчики не отступят. Это пока всего лишь угрозы, но что будет, если у этого ИИ были бы, например, руки и автомат?
Ведущие разработчики ИИ сами понимают эти перспективы и ищут для себя варианты «спасения». Например, бывший главный научный сотрудник OpenAI, один из самых влиятельных умов в области ИИ Илья Суцкевер предложил построить «бункер Судного дня», чтобы защитить исследователей ИИ от экзистенциальных рисков, создаваемых общим искусственным интеллектом. Он сказал: «Мы определенно построим бункер, прежде чем выпустим ИИ». Он, как и многие его коллеги, всерьез опасаются, что ИИ может спровоцировать геополитический хаос, общественный крах, но продолжают делать то, что им велено. И будьте уверены: они уже построили себе много бункеров.
Для чего это делается? Об этом Дэвид Айк говорил еще 10 и 15 лет назад, и мы видим, что этот план реализуется. На видео выше он назвал главную конечную цель того пути, по которому сейчас все идут.
Это все происходит, не только в США, а по всему миру, на фоне молчаливого согласия общества, которое не просто молчит, а с радостью принимает и использует все новинки.
Присоединяйтесь — мы покажем вам много интересного
Присоединяйтесь к ОК, чтобы подписаться на группу и комментировать публикации.
Нет комментариев