Contexto de agente de IA nunca perdido: La arquitectura de memoria DAG para plugins LCM OpenClaw nativo (y casi todos los agentes de IA) simplemente truncan mensajes antiguos cuando la conversación se desvanece de la ventana de contexto del modelo, y la información se pierde. La proposición central de Garra Sin Pérdida es que la compresión no es lo mismo que olvidar. Sustituye el mecanismo original de truncamiento de ventana deslizante por un sistema jerárquico de resumen DAG (grafo acíclico dirigido), almacena cada mensaje de forma persistente y permite al agente "recordar" teóricamente el historial infinito mientras mantiene el presupuesto de tokens mediante el enriquecimiento recursivo de resumen-reanudación. • GitHub ha recibido 2.000 estrellas, 147 forks y se ha convertido en un éxito poco después de su lanzamiento, un proyecto representativo en el ecosistema OpenClaw • El umbral para compresión desencadenada por el contexto es del 75% (umbral context=0,75), es decir, empieza a condensarse cuando aún queda un 25% de margen para evitar estallidos de ventana • Proteger los 32 mensajes más recientes de ser comprimidos (freshTailCount=32) para garantizar la consistencia reciente • La capa subyacente persiste todos los mensajes originales con SQLite, resume la cadena de nodos hasta el mensaje fuente y puede ampliar la recuperación del texto original en cualquier momento • Hay tres herramientas de Agente: lcm_grep (búsqueda), lcm_describe (describir nodos) lcm_expand (ampliar los detalles) • Los nodos hoja pueden tener un máximo de 20.000 tokens por bloque de contenido fuente, con un objetivo de compresión de 1.200 tokens. El nodo de enriquecimiento de alto nivel aspira a alcanzar 2000 tokens 1. Instalación: Plugins openclaw de comando de una sola línea instalan @martian-engineering/lossless-claw, sin necesidad de cambiar manualmente el JSON 2. Configuración: Especificar contextEngine: "lossless-claw" en la configuración de OpenClaw para ajustar parámetros a través de variables de entorno 3. Patrones de diseño básicos: • Compresión automática tras cada ronda de diálogo (puede desactivarse) • Mensajes antiguos → resumen de hojas → nodo condensado, que se condensa capa por capa para formar un DAG • Cuando el Agente llama a lcm_expand, se expande hacia atrás desde el DAG para restaurar los detalles originales 4. Persistencia de la sesión: Con session.reset.idleMinutes: 10080 (7 días), la misma sesión puede sobrevivir una semana, y la memoria LCM se acumula entre sesiones...