Sebuah makalah yang patut diperhatikan dengan cermat. Ini menyajikan Lossless Context Management (LCM), yang membingkai ulang bagaimana agen menangani konteks yang panjang. Ini mengungguli Claude Code pada tugas konteks panjang. Model Bahasa Rekursif memberi model otonomi penuh untuk menulis skrip memorinya sendiri. LCM mengambil kembali kekuatan itu, menyerahkannya ke mesin deterministik yang mengompresi pesan lama ke dalam DAG hierarkis sambil menyimpan penunjuk lossless ke setiap aslinya. Kurang ekspresif dalam teori, jauh lebih dapat diandalkan dalam praktiknya. Hasilnya: Agen mereka (Volt, di Opus 4.6) mengalahkan Claude Code pada *setiap* panjang konteks dari 32K hingga 1M token pada benchmark OOLONG. Peningkatan rata-rata +29,2 poin dibandingkan Claude Code +24,7. Kesenjangan melebar pada konteks yang lebih panjang. Implikasinya adalah salah satu yang terus kita pelajari kembali dari sejarah rekayasa perangkat lunak: bagaimana Anda mengelola apa yang dilihat model mungkin lebih penting daripada memberikan alat model untuk mengelolanya sendiri. Setiap kerangka kerja agen yang dikirimkan dengan strategi memori "biarkan model mengetahuinya" mungkin dibangun di atas abstraksi yang salah sepenuhnya. Kertas: Pelajari cara membangun agen AI yang efektif di akademi kami: