Hvordan skjer dette med OpenClaw, og hvordan kan man muligens fikse det... Boten min dumper kontinuerlig massive, repeterende verktøyresultater, gjør tungt lederarbeid og havner i debug-løkker i den delte økten DM-ene mine er i, og sitter fast i 10 minutter av gangen til han går ut eller gatewayen krasjer og starter på nytt. Dette fører til at meldinger mistes, en bot som ikke svarer, og at OOM krasjer flere ganger i timen. Selv når jeg får boten til å delegere, dumper underagentene resultatene inn i kontekstvinduet. Jeg fikk Codex til å undersøke, og den fant: • 56 verktøyresultater ≥150 000 karakterer allerede bakt inn i nåværende sesjonshistorikk • Beskjæring fungerer ikke på vår primære modellvei (Codex/OpenAI Oauth) • Ingen kjøretidshåndheving for å stoppe store verktøydumper i kontekst • Økt vedlikehold rydder opp etter skaden, det forhindrer det ikke Jeg er ganske sikker på at standard OpenClaw-oppførsel ikke burde dumpe 200k karakterverktøyresultater i transkripsjonen. Noe i mitt spesifikke oppsett må enten deaktivere en safeguard eller hoppe over avkorting for verktøyresultater... Siden jeg bruker tapsfri klo, får det bli enda verre: 81 MB sesjonsfil, 31,6 MB er bare verktøyresultattekst 😬 169 verktøyresultater over 50 000 karakterer. Den ene er 285 000 tegn (fra sessions_list). Det finnes beskjæringslogikk som trimmer verktøyresultater fra kontekstmeldingene. buildContextPruningFactory Men modellene må være "cache-ttl" De kvalifiserte tilbyderne er tilsynelatende kun: Antropisk Månesprøyt Zai For meg sier boten min at beskjæringskoden nekter å aktiveres på ikke-antropiske leverandører. Jeg bruker openai-codex 5.3 mye, så når beskjæring er konfigurert, eksisterer koden, den aktiveres bare stille aldri. OpenAI Responses API bruker server-side kompaktering, og OpenClaw aktiverer dette automatisk for direkte OpenAI-modeller, slik at OpenAI håndterer kompaktering på deres side. Men jeg bruker openai-codex/*, ikke openai/*. Codex OAuth-stien går gjennom en annen kjøretid (tilsynelatende pi-ai), ikke Responses API. Så: • cache-ttl beskjæring > kun antropisk • OpenAI server-side kompaktering > kun direkte openai API • LCM/lossless-claw-> beskjærer ikke gamle verktøyresultater så vidt jeg vet Boten min insisterer på at openai-codex-banen ikke får noen av beskjæringsveiene. Så jeg sitter igjen med en bot som altfor ofte er avhengig av nød-truncateOversizedToolResultsInSession som siste utvei for overløpsgjenoppretting uten forebyggende beskjæring eller sikkerhetstiltak. Siden LCM/lossless-claw ikke har sitt eget verktøy for resultatstyring, arver den enorme, overdimensjonerte transkripsjoner og må jobbe ekstra hardt for å oppsummere for DAG-noder. Jeg har ingen vedlikehold av økter og lange økter, så ingenting begrenser transkripsjonen over tid, noe som resulterer i: 4 707 verktøyresultater hoper seg opp for alltid i en 81MB-fil, uten noen kjøretidsmekanisme som faktisk renser dem. Når boten min begynner å feilsøke, begynner den å greppe og dumpe store mengder tekst inn i hovedsesjonen, så setter den seg fast i den løkken og dør, og må gjøre det igjen, noe som forverrer problemet. Jeg vet ikke hvordan jeg skal takle dette problemet, det er flere lag dypt.
@quinnzeda Men du kan ha rett... Jeg må kanskje ta en uke fri før jeg prøver dette.
1,46K