Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Jak to się dzieje z OpenClaw i jak można to naprawić…
Mój bot ciągle generuje ogromne, powtarzające się wyniki narzędzi, wykonuje ciężkie operacje i wpada w pętle debugowania w wspólnej sesji, w której są moje DM-y, i utknie na 10 minut, aż wygaśnie lub brama się zawiesi i zrestartuje.
Powoduje to utratę wiadomości, nieodpowiadającego bota i wielokrotne awarie OOM w ciągu godziny.
Nawet gdy uda mi się zlecić botowi, subagenci wrzucają wyniki do okna kontekstowego.
Kazałem codexowi zbadać sprawę i znalazł:
• 56 wyników narzędzi ≥150k znaków już wbudowanych w historię bieżącej sesji
• Pruning nie działa na naszej głównej ścieżce modelu (Codex/OpenAI Oauth)
• Brak egzekwowania w czasie rzeczywistym, aby zatrzymać ogromne zrzuty narzędzi do kontekstu
• Utrzymanie sesji sprząta po szkodach, nie zapobiega im
Jestem pewien, że domyślne zachowanie OpenClaw nie powinno zrzucać 200k znaków wyników narzędzi do transkryptu.
Coś w mojej konkretnej konfiguracji musi albo dezaktywować zabezpieczenie, albo pomijać skracanie wyników narzędzi…
Ponieważ używam lossless-claw, może to się jeszcze pogorszyć:
Plik sesji 81MB, 31.6MB to tylko tekst wyników narzędzi 😬
169 wyników narzędzi powyżej 50k znaków. Jeden ma 285k znaków (z sessions_list.)
Istnieje logika przycinania, która przycina wyniki narzędzi z wiadomości kontekstowych.
buildContextPruningFactory
Ale modele muszą mieć „cache-ttl"
Kwalifikujący się dostawcy to podobno tylko:
anthropic
moonshot
zai
Dla mnie mój bot mówi, że kod przycinania odmawia aktywacji na dostawcach innych niż Anthropic.
Używam openai-codex 5.3 dużo, więc gdy przycinanie jest skonfigurowane, kod istnieje, po prostu cicho nigdy się nie aktywuje.
OpenAI Responses API używa kompresji po stronie serwera, a OpenClaw automatycznie włącza to dla bezpośrednich modeli openai, więc OpenAI zajmuje się kompresją po swojej stronie.
Ale jestem na openai-codex/*, a nie openai/*. Ścieżka OAuth Codex przechodzi przez inny czas wykonania (podobno pi-ai), a nie API Odpowiedzi.
Więc:
• cache-ttl pruning > tylko Anthropic
• Kompresja po stronie serwera OpenAI > tylko bezpośrednie API openai
• LCM/lossless-claw > nie przycina starych wyników narzędzi, o ile wiem
Mój bot twierdzi, że ścieżka openai-codex nie otrzymuje żadnej ścieżki przycinania.
Więc zostaję z botem, który zbyt często polega na funkcji awaryjnego skracania truncateOversizedToolResultsInSession jako ostatniej desce ratunku w przypadku przepełnienia, bez zapobiegawczego przycinania / zabezpieczeń.
Ponieważ LCM/lossless-claw nie ma własnego zarządzania wynikami narzędzi, dziedziczy ogromne, przerośnięte transkrypty i musi ciężko pracować, aby podsumować dla węzłów DAG.
Nie mam utrzymania sesji i długich sesji, więc nic nie ogranicza transkryptu w czasie, co prowadzi do:
4,707 wyników narzędzi gromadzących się w nieskończoność w pliku 81MB, bez mechanizmu wykonawczego, który je faktycznie sprząta.
Kiedy mój bot zaczyna debugowanie, zaczyna przeszukiwać i zrzucać ogromny tekst do głównej sesji, a następnie utknie w tej pętli i umiera, a potem musi to zrobić ponownie, pogarszając problem.
Nie wiem, jak podejść do tego problemu, to wiele warstw głęboko.

@quinnzeda Ale możesz mieć rację… Muszę jednak wziąć tydzień wolnego, zanim spróbuję tego.
1,44K
Najlepsze
Ranking
Ulubione
