Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Un documento che merita di essere esaminato attentamente.
Presenta la Gestione del Contesto Senza Perdite (LCM), che riformula il modo in cui gli agenti gestiscono contesti lunghi.
Supera Claude Code nei compiti a lungo termine.
I Modelli Linguistici Ricorsivi danno al modello piena autonomia per scrivere i propri script di memoria. LCM riprende quel potere, affidandolo a un motore deterministico che comprime i vecchi messaggi in un DAG gerarchico mantenendo puntatori senza perdite a ogni originale. Meno espressivo in teoria, molto più affidabile in pratica.
I risultati:
Il loro agente (Volt, su Opus 4.6) batte Claude Code in *ogni* lunghezza di contesto da 32K a 1M token nel benchmark OOLONG. +29.2 punti di miglioramento medio rispetto ai +24.7 di Claude Code. Il divario si amplia con contesti più lunghi.
L'implicazione è una che continuiamo a riapprendere dalla storia dell'ingegneria del software: come gestisci ciò che il modello vede potrebbe contare di più rispetto a dare al modello strumenti per gestirlo da solo. Ogni framework di agenti che viene fornito con strategie di memoria "lascia che il modello lo capisca" potrebbe basarsi su un'astrazione completamente errata.
Documento:
Impara a costruire agenti AI efficaci nella nostra accademia:

Principali
Ranking
Preferiti
