Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
En artikkel verdt å følge nøye med.
Den presenterer Lossless Context Management (LCM), som omdefinerer hvordan agenter håndterer lange kontekster.
Den overgår Claude Code på oppgaver med lang kontekst.
Rekursive språkmodeller gir modellen full autonomi til å skrive sine egne minneskript. LCM tar denne makten tilbake, og gir den til en deterministisk motor som komprimerer gamle meldinger til en hierarkisk DAG, samtidig som den beholder tapsfrie pekere til hver original. Mindre uttrykksfullt i teorien, langt mer pålitelig i praksis.
Resultatene:
Agenten deres (Volt, på Opus 4.6) slår Claude Code på *hver* kontekstlengde fra 32K til 1 million tokens på OOLONG-benchmarken. +29,2 poeng i gjennomsnittlig forbedring mot Claude Codes +24,7. Gapet øker ved lengre sammenhenger.
Implikasjonen er noe vi stadig lærer på nytt fra programvareutviklingshistorien: hvordan du håndterer det modellen ser, kan være viktigere enn å gi modellen verktøy for å styre den selv. Hvert agentrammeverk som leveres med «la modellen finne ut av det»-minnestrategier kan bygge på helt feil abstraksjon.
Artikkel:
Lær å bygge effektive AI-agenter i vår akademi:

Topp
Rangering
Favoritter
