Artykuł, na który warto zwrócić szczególną uwagę. Prezentuje Bezstratne Zarządzanie Kontekstem (LCM), które przekształca sposób, w jaki agenci radzą sobie z długimi kontekstami. Przewyższa Claude Code w zadaniach z długim kontekstem. Rekurencyjne Modele Językowe dają modelowi pełną autonomię w pisaniu własnych skryptów pamięci. LCM odbiera tę moc, przekazując ją deterministycznemu silnikowi, który kompresuje stare wiadomości w hierarchiczny DAG, zachowując jednocześnie bezstratne wskaźniki do każdej oryginalnej wiadomości. Teoretycznie mniej ekspresyjne, znacznie bardziej niezawodne w praktyce. Wyniki: Ich agent (Volt, na Opus 4.6) pokonuje Claude Code na *wszystkich* długościach kontekstu od 32K do 1M tokenów w benchmarku OOLONG. Średnia poprawa o 29,2 punktów w porównaniu do 24,7 Claude Code. Różnica się powiększa przy dłuższych kontekstach. Implikacja jest taka, że ciągle uczymy się tego z historii inżynierii oprogramowania: sposób, w jaki zarządzasz tym, co model widzi, może być ważniejszy niż dawanie modelowi narzędzi do zarządzania tym samodzielnie. Każda struktura agenta, która wprowadza strategie pamięci "niech model to rozwiąże", może opierać się na całkowicie błędnej abstrakcji. Artykuł: Naucz się budować skuteczne agenty AI w naszej akademii: