Jak to się dzieje z OpenClaw i jak można to naprawić… Mój bot ciągle generuje ogromne, powtarzające się wyniki narzędzi, wykonuje ciężkie operacje i wpada w pętle debugowania w wspólnej sesji, w której są moje DM-y, i utknie na 10 minut, aż wygaśnie lub brama się zawiesi i zrestartuje. Powoduje to utratę wiadomości, nieodpowiadającego bota i wielokrotne awarie OOM w ciągu godziny. Nawet gdy uda mi się zlecić botowi, subagenci wrzucają wyniki do okna kontekstowego. Kazałem codexowi zbadać sprawę i znalazł: • 56 wyników narzędzi ≥150k znaków już wbudowanych w historię bieżącej sesji • Pruning nie działa na naszej głównej ścieżce modelu (Codex/OpenAI Oauth) • Brak egzekwowania w czasie rzeczywistym, aby zatrzymać ogromne zrzuty narzędzi do kontekstu • Utrzymanie sesji sprząta po szkodach, nie zapobiega im Jestem pewien, że domyślne zachowanie OpenClaw nie powinno zrzucać 200k znaków wyników narzędzi do transkryptu. Coś w mojej konkretnej konfiguracji musi albo dezaktywować zabezpieczenie, albo pomijać skracanie wyników narzędzi… Ponieważ używam lossless-claw, może to się jeszcze pogorszyć: Plik sesji 81MB, 31.6MB to tylko tekst wyników narzędzi 😬 169 wyników narzędzi powyżej 50k znaków. Jeden ma 285k znaków (z sessions_list.) Istnieje logika przycinania, która przycina wyniki narzędzi z wiadomości kontekstowych. buildContextPruningFactory Ale modele muszą mieć „cache-ttl" Kwalifikujący się dostawcy to podobno tylko: anthropic moonshot zai Dla mnie mój bot mówi, że kod przycinania odmawia aktywacji na dostawcach innych niż Anthropic. Używam openai-codex 5.3 dużo, więc gdy przycinanie jest skonfigurowane, kod istnieje, po prostu cicho nigdy się nie aktywuje. OpenAI Responses API używa kompresji po stronie serwera, a OpenClaw automatycznie włącza to dla bezpośrednich modeli openai, więc OpenAI zajmuje się kompresją po swojej stronie. Ale jestem na openai-codex/*, a nie openai/*. Ścieżka OAuth Codex przechodzi przez inny czas wykonania (podobno pi-ai), a nie API Odpowiedzi. Więc: • cache-ttl pruning > tylko Anthropic • Kompresja po stronie serwera OpenAI > tylko bezpośrednie API openai • LCM/lossless-claw > nie przycina starych wyników narzędzi, o ile wiem Mój bot twierdzi, że ścieżka openai-codex nie otrzymuje żadnej ścieżki przycinania. Więc zostaję z botem, który zbyt często polega na funkcji awaryjnego skracania truncateOversizedToolResultsInSession jako ostatniej desce ratunku w przypadku przepełnienia, bez zapobiegawczego przycinania / zabezpieczeń. Ponieważ LCM/lossless-claw nie ma własnego zarządzania wynikami narzędzi, dziedziczy ogromne, przerośnięte transkrypty i musi ciężko pracować, aby podsumować dla węzłów DAG. Nie mam utrzymania sesji i długich sesji, więc nic nie ogranicza transkryptu w czasie, co prowadzi do: 4,707 wyników narzędzi gromadzących się w nieskończoność w pliku 81MB, bez mechanizmu wykonawczego, który je faktycznie sprząta. Kiedy mój bot zaczyna debugowanie, zaczyna przeszukiwać i zrzucać ogromny tekst do głównej sesji, a następnie utknie w tej pętli i umiera, a potem musi to zrobić ponownie, pogarszając problem. Nie wiem, jak podejść do tego problemu, to wiele warstw głęboko.
@quinnzeda Ale możesz mieć rację… Muszę jednak wziąć tydzień wolnego, zanim spróbuję tego.
1,44K