Un articol care merită urmărit cu atenție. Prezintă Managementul Contextului Fără Pierderi (LCM), care reformulează modul în care agenții gestionează contextele lungi. Acesta depășește Claude Code la sarcini cu context lung. Modelele de limbaj recursive oferă modelului autonomie deplină pentru a-și scrie propriile scripturi de memorie. LCM preia acea putere înapoi, predând-o unui motor determinist care comprimă mesajele vechi într-un DAG ierarhic, păstrând totodată pointerii lossless către fiecare original. Mai puțin expresiv în teorie, mult mai fiabil în practică. Rezultatele: Agentul lor (Volt, pe Opus 4.6) depășește Claude Code la *fiecare* lungime de context, de la 32K la 1M tokens pe benchmark-ul OOLONG. +29,2 puncte de îmbunătățire medie față de +24,7 pentru Claude Code. Diferența se mărește în contexte mai lungi. Implicația este una pe care o reînvățăm mereu din istoria ingineriei software: modul în care gestionezi ceea ce vede modelul poate conta mai mult decât să îi oferi modelului unelte pentru a-l gestiona singur. Orice framework de agenți care livrează strategii de memorie "lasă modelul să se descurce" poate construi pe o abstracție complet greșită. Hârtie: Învață să construiești agenți AI eficienți în academia noastră: