
9 июля 2025 года большая международная команда учёных (University of Central Florida (США), Cornell University (США), University of Oxford (Великобритания), City University of Hong Kong (Китай), Amazon Research, Meta Research (работа выполнена вне компании)) опубликовала масштабный обзор «Thinking Beyond Tokens: From Brain-Inspired Intelligence to Cognitive Foundations for Artificial General Intelligence (
https://arxiv.org/abs/2507.00951)».
Они поставили амбициозный вопрос: почему даже гигантские модели вроде GPT-4 или DeepSeek не становятся по-настоящему разумными?
Давайте разберёмся, почему «предсказание следующего слова» не превращает ИИ в мыслящее существо — и что с этим делать.
В чём проблема?Современные большие языковые модели (LLMs):

Умеют писать тексты, решать задачи, отвечать на вопросы.

Но при этом не обладают памятью, не строят образы мира, не понимают, что они делают.
Это всё ещё очень продвинутые «угадайки» слов — токен за токеном.
Даже если увеличить количество параметров до триллиона, эти модели не начнут думать, как человек. Они просто будут лучше имитировать тексты.
Что предложили учёные?Исследователи систематизировали последние идеи из ИИ, когнитивной науки и нейробиологии и выделили, что критически важно для перехода к настоящему AGI (Artificial General Intelligence):

Мировые модели — внутренние симуляции реальности, позволяющие прогнозировать, что произойдёт после действия (например, как человек мысленно «проигрывает» ситуацию).

Память — не просто контекст в 100 000 токенов, а долговременное хранение опыта и знаний.

Агентность и планирование — способность ставить цели и действовать ради их достижения.

Многомодальность и телесность — взаимодействие с окружающим миром, а не работа только с текстами.

Нейросимволические системы — гибрид нейронных сетей и логических правил, которые учат ИИ не только узнавать паттерны, но и оперировать понятиями.

Natural Language-based Society of Mind — архитектура, где множество специализированных агентов общаются на естественном языке и вместе решают задачи. Это как «команда в голове» у ИИ.
Ключевые факты и примерыChain-of-Thought и Tree-of-Thoughts повышают точность рассуждений (например, с 4% до 74% на сложных задачах), но всё ещё не создают полноценного понимания.
Decision Transformers учат ИИ планировать действия, а не только предсказывать токены.
Принцип «интеллект как компрессия» — способность выделять суть из данных и строить абстракции, а не просто запоминать всё подряд.
Где это может пригодиться?Такие когнитивные ИИ смогут стать:

Адаптивными цифровыми ассистентами, которые учатся вместе с вами и объясняют свои решения.

Интеллектуальными системами для здравоохранения — чтобы помогать врачам принимать решения.

Роботами, способными ориентироваться в реальном мире и самостоятельно планировать действия.

Педагогическими ИИ, которые будут учитывать контекст и индивидуальные особенности учеников.
Важность этики и социальной ответственностиИсследователи подчёркивают: такой мощный ИИ нельзя разрабатывать только ради коммерческих целей.
Необходимо:

Делать архитектуры прозрачными и понятными.

Закладывать этические принципы в систему с самого начала.

Предусматривать механизмы защиты от злоупотреблений.
Ограничения и вызовы— Пока это в основном теория: нужны годы работы, чтобы собрать такие системы.
— Придётся заново переосмыслить обучение, тестирование и стандарты безопасности.
— Важно продумать, как сделать такие ИИ доступными и полезными для всех, а не только для больших корпораций.
Почему это важно?Это исследование показывает: ИИ будущего — это не «ещё больше параметров», а переход к архитектурам, которые умеют планировать, помнить и понимать.
Если мы хотим создать ИИ, который действительно мыслит, а не подражает, придётся учить его работать как человек — с памятью, целями и собственной моделью мира.
#AIWiz #ИИ #AGI #технологиибудущего
Нет комментариев