Populární témata
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Článek, kterému stojí za to věnovat pozornost.
Představuje Bezztrátovou správu kontextu (LCM), která přetváří, jak agenti zpracovávají dlouhé kontexty.
Překonává Claude Code u úloh s dlouhým kontextem.
Rekurzivní jazykové modely dávají modelu plnou autonomii při psaní vlastních paměťových skriptů. LCM si tuto sílu bere zpět a předává ji deterministickému enginu, který komprimuje staré zprávy do hierarchického DAG a zároveň ponechává bezztrátové ukazatele ke každému originálu. Méně expresivní v teorii, mnohem spolehlivější v praxi.
Výsledky:
Jejich agent (Volt, na Opus 4.6) poráží Claude Code při *každé* délce kontextu od 32K do 1M tokenů na OOLONG benchmarku. +29,2 bodu průměrné zlepšení oproti +24,7 bodu u Claude Code. Rozdíl se zvětšuje v delších kontextech.
Důsledek je něco, co se neustále učíme z historie softwarového inženýrství: jak spravujete to, co model vidí, může mít větší význam než dát modelu nástroje k jeho samotné správě. Každý agentní framework, který používá strategie "nechte model si to sám vymyslet", může stavět na úplně špatné abstrakci.
Článek:
Naučte se vytvářet efektivní AI agenty v naší akademii:

Top
Hodnocení
Oblíbené
