AI Agent contexto nunca se pierde: arquitectura de memoria DAG del plugin LCM OpenClaw nativo (y casi todos los AI Agents) simplemente truncan los mensajes antiguos cuando la conversación supera la ventana de contexto del modelo, lo que resulta en la pérdida de información. La afirmación central de Lossless Claw es: comprimir no es igual a olvidar. Reemplaza el mecanismo de truncamiento de ventana deslizante original por un sistema de resúmenes jerárquicos basado en DAG (gráfico acíclico dirigido), almacenando de forma persistente cada mensaje, y mediante un proceso de resumen y re-resumen recursivo, permite que el Agent "recuerde" teóricamente una historia de longitud infinita mientras mantiene el presupuesto de tokens. • GitHub ha alcanzado 2k Stars, 147 Forks, y se ha convertido en un proyecto popular poco después de su lanzamiento - un proyecto representativo entre las herramientas del ecosistema OpenClaw • El umbral de compresión activado por el contexto es del 75% (contextThreshold=0.75), lo que significa que comienza a condensar cuando aún hay un 25% de margen, evitando el desbordamiento • Protege los 32 mensajes más recientes de ser comprimidos (freshTailCount=32), asegurando coherencia reciente • Utiliza SQLite para almacenar de forma persistente todos los mensajes originales, los nodos de resumen enlazan de vuelta a los mensajes fuente, permitiendo la recuperación del texto original en cualquier momento • Proporciona tres herramientas para el Agent: lcm_grep (búsqueda), lcm_describe (describir nodos), lcm_expand (expandir detalles) • Cada nodo hoja contiene un máximo de 20000 tokens de contenido fuente, con un objetivo de compresión de 1200 tokens; el objetivo de los nodos de condensación de alto nivel es de 2000 tokens 1. Instalación: un comando openclaw plugins install @martian-engineering/lossless-claw, sin necesidad de modificar JSON manualmente 2. Configuración: en la configuración de OpenClaw, especificar contextEngine: "lossless-claw", ajustando parámetros a través de variables de entorno 3. Patrón de diseño central: • Compresión automática después de cada ronda de conversación (opcional) • Mensajes antiguos → Resumen Hoja → Nodo Condensado, condensando capa por capa, formando un DAG • Cuando el Agent llama a lcm_expand, se expande hacia atrás desde el DAG, recuperando los detalles originales 4. Persistencia de sesión: junto con session.reset.idleMinutes: 10080 (7 días) permite que la misma sesión sobreviva una semana, acumulando memoria LCM entre sesiones...