
11 сентября 2025 года международная команда исследователей из Gradient, Zhejiang University, University of Toronto, Rice University, Waseda University и других вузов представила работу «
SEDM: Scalable Self-Evolving Distributed Memory for Agents».

Проблема: память агентов тонет в шуме
Современные мультиагентные системы быстро накапливают огромные объёмы данных о взаимодействиях.
Но:
Память разрастается бесконтрольно

Растут вычислительные расходы

Важная информация теряется среди «шума»
Итог: агенты начинают работать медленнее и менее точно.
Решение: SEDM (Self-Evolving Distributed Memory)
Учёные предложили превратить память из пассивного архива в живой, саморазвивающийся механизм.
Проще говоря, это новая система памяти, которая сама себя чистит и развивает.
Она работает так:
Фильтр на входе — в память попадают только полезные фрагменты опыта (через A/B-тест).
Умный контроллер — выбирает важное, объединяет дубликаты, убирает лишнее.
Перенос знаний — память можно применять даже в других задачах.
Тесты на двух бенчмарках:FEVER (fact-checking)
• без памяти — 57%
• старая глобальная память (G-Memory) — 62%
• SEDM — 66% при меньших затратах токенов
HotpotQA (multi-hop reasoning)
• без памяти — 34%
• G-Memory — 38%
• SEDM — 39% с меньшей нагрузкой

Самое интересное: знания, собранные на FEVER, улучшили результаты на HotpotQA (41% против 39%) — то есть факты из одной задачи помогли в другой.
Простой примерПредставьте, что ваш телефон сам удаляет ненужные скриншоты и оставляет только те, которые реально помогают.
Вот так же и SEDM: не хранит всё подряд, а учится оставлять самое ценное.
ВыводSEDM — это шаг к долговременным ИИ-агентам, которые:

учатся отбирать полезное

уменьшают вычислительные затраты

способны переносить знания между задачами
Иными словами, это не «память-свалка», а умная эволюционирующая память, которая делает агентов эффективнее.
#AIWiz #ИИ #AgenticAI #airesearch
Нет комментариев