Meta заявила, что может остановить разработку опасных AI-систем
Компания Meta представила новый документ — Frontier AI Framework, в котором обозначила сценарии, при которых может приостановить разработку своих передовых AI-систем.

Какие AI считаются слишком опасными?
Meta делит риски на два уровня:

Высокий риск – AI может облегчить кибератаки или разработку биологического оружия, но не делает это надежно.

Критический риск – AI позволяет совершить катастрофические атаки, от которых нет эффективной защиты.
Примеры рисков, указанные Meta:
Автоматический взлом защищённых корпоративных систем.
Распространение высокоэффективного биологического оружия.

Что Meta будет делать с такими AI?
Если AI высокого риска → Meta ограничит к нему доступ и не выпустит его до внедрения мер безопасности.
Если AI критического риска → Meta может полностью прекратить его разработку и усилить внутренние меры безопасности, чтобы избежать утечки технологий.

Как оценивается риск?
Meta не использует конкретные тесты или метрики для классификации AI. Вместо этого:
Риски оцениваются экспертами внутри компании и внешними исследователями.
Решение о выпуске AI принимают руководители Meta.

Открытость AI – плюс или риск?
Meta придерживается открытого подхода в разработке AI и делится технологиями с миром, но этот подход вызывает споры.
Например, её AI-модель Llama уже использовалась враждебными государствами для создания военного чат-бота.

Meta vs. DeepSeek
Meta намекает, что её политика более ответственная, чем у китайского стартапа DeepSeek, который тоже делает свои AI-доступными, но без серьёзных ограничений.

Будущее AI под контролем?
Meta заявляет, что хочет сбалансировать пользу и риски AI, чтобы развитие технологий не угрожало безопасности общества.

Как вы считаете, должны ли компании замедлять развитие AI ради безопасности? Или это шаг назад? Пишите в комментариях!
Нет комментариев