Актуальные темы
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Документ, которому стоит уделить особое внимание.
Он представляет Безубыточное Управление Контекстом (LCM), которое переосмысляет, как агенты обрабатывают длинные контексты.
Он превосходит Claude Code в задачах с длинным контекстом.
Рекурсивные Языковые Модели предоставляют модели полную автономию для написания собственных сценариев памяти. LCM забирает эту силу обратно, передавая её детерминированному движку, который сжимает старые сообщения в иерархический DAG, сохраняя безубыточные указатели на каждое оригинальное сообщение. Менее выразительный в теории, гораздо более надежный на практике.
Результаты:
Их агент (Volt, на Opus 4.6) обходит Claude Code на *каждой* длине контекста от 32K до 1M токенов по бенчмарку OOLONG. Среднее улучшение на +29.2 пункта по сравнению с +24.7 у Claude Code. Разрыв увеличивается на более длинных контекстах.
Следствие таково, что мы продолжаем переучиваться на истории программной инженерии: как вы управляете тем, что видит модель, может иметь большее значение, чем предоставление модели инструментов для управления этим самостоятельно. Каждый фреймворк агента, поставляемый с стратегиями памяти "пусть модель сама разберется", может строиться на совершенно неправильной абстракции.
Документ:
Научитесь строить эффективных AI агентов в нашей академии:

Топ
Рейтинг
Избранное
