Hur händer detta med OpenClaw och hur kan man möjligtvis fixa det... Min bot dumpar ständigt massiva repetitiva verktygsresultat, gör tungt exekutivt arbete och hamnar i debug-loopar i den delade sessionen mina spelledare är med i, och fastnar i 10 minuter åt gången tills han går ut på tiden eller gatewayen kraschar och startar om. Detta leder till att meddelanden tappas, en bot som inte svarar och OOM kraschar flera gånger i timmen. Även när jag får boten att delegera, dumpar underagenterna resultaten i kontextfönstret. Jag lät Codex undersöka och den hittade: • 56 verktygsresultat ≥150 000 tecken redan inbakade i nuvarande sessionshistorik • Beskärning fungerar inte på vår primära modellbana (Codex/OpenAI Oauth) • Ingen körtidsövervakning för att stoppa stora verktygsdumpningar i kontext • Sessionsunderhållet städar upp efter skadan, det förhindrar den inte Jag är ganska säker på att standardbeteendet för OpenClaw inte borde dumpa 200k char-verktygsresultat i transkriptet. Något i min specifika setup måste antingen inaktivera en safeguard eller hoppa över trunkering för verktygsresultat... Eftersom jag använder lossless-claw får det växa ännu värre: 81MB sessionsfil, 31,6MB är bara verktygsresultattext 😬 169 verktyg resultat över 50 000 karaktärer. En är 285 000 karaktärer (från sessions_list). Det finns beskärningslogik som trimmar verktygsresultat från kontextmeddelandena. buildContextPruningFactory Men modellerna måste vara "cache-ttl" De behöriga vårdgivarna är tydligen bara: Antropisk Månnedskjutning zai För mig säger min bot att beskärningskoden vägrar aktiveras på icke-antropiska leverantörer. Jag använder Openai-codex 5.3 mycket, så när beskärning är konfigurerad finns koden, den aktiveras bara tyst aldrig. OpenAI Responses API använder server-side kompaktion och OpenClaw aktiverar detta automatiskt för direkta OpenAI-modeller, så OpenAI hanterar kompaktering på deras sida. Men jag använder openai-codex/*, inte openai/*. Codex OAuth-vägen går genom en annan runtime (tydligen pi-ai), inte Responses API. Så: • cache-ttl-beskärning > endast antropisk • OpenAI server-side kompaktion > endast direkt openai API • LCM/lossless-claw-> beskär inte gamla verktygsresultat såvitt jag vet Min bot insisterar på att openai-codex-lane inte får någon av beskärningsvägarna. Så jag sitter kvar med en bot som alltför ofta förlitar sig på nödfunktionen för trunkering av OversizedToolResultsInSession som sista utväg för överflödesåterställning utan förebyggande beskärning eller skyddsåtgärder. Eftersom LCM/lossless-claw inte har ett eget verktyg för resultathantering, ärver den enorma överdimensionerade transkript och måste arbeta extra hårt för att sammanfatta för DAG-noder. Jag har ingen sessionsunderhåll och långa sessioner, så inget binder transkriptionen över tid vilket resulterar i: 4 707 verktygsresultat staplas för evigt i en 81MB-fil, utan någon körningsmekanism som faktiskt rensar dem. När min bot börjar felsöka börjar den greppa och dumpa massiv text i huvudsessionen, fastnar i den loopen och dör och måste göra om det, vilket förvärrar problemet. Jag vet inte hur jag ska hantera det här problemet, det ligger flera lager djupt.
@quinnzeda Men du kan ha rätt... Jag kanske måste ta en veckas ledigt innan jag provar detta.
1,44K