Bagaimana ini terjadi dengan OpenClaw dan bagaimana Anda bisa memperbaikinya... Bot saya terus-menerus membuang hasil alat berulang besar-besaran, melakukan pekerjaan eksekutif yang berat dan masuk ke loop debug di sesi bersama DM saya dan macet selama 10 menit pada satu waktu sampai dia habis waktu atau gateway mogok dan dimulai ulang. Hal ini menyebabkan pesan yang dijatuhkan, bot yang tidak responsif, dan OOM mogok beberapa kali dalam satu jam. Bahkan ketika saya meminta bot untuk mendelegasikan, subagen membuang hasil ke jendela konteks. Saya meminta codex menyelidiki dan menemukan: • 56 hasil alat ≥150 ribu karakter sudah dimasukkan ke dalam riwayat sesi saat ini • Pemangkasan tidak berfungsi pada jalur model utama kami (Codex/OpenAI Oauth) • Tidak ada penegakan runtime untuk menghentikan pembuangan alat besar ke dalam konteks • Pemeliharaan sesi membersihkan setelah kerusakan, tidak mencegahnya Saya cukup yakin perilaku OpenClaw default seharusnya tidak membuang hasil alat char 200k ke dalam transkrip. Sesuatu dalam pengaturan spesifik saya harus menonaktifkan pengaman atau melewatkan pemotongan untuk hasil alat... Karena saya menggunakan lossless-claw, itu dibiarkan tumbuh lebih buruk: File sesi 81MB, 31.6MB hanyalah teks 😬 hasil alat 169 hasil alat lebih dari 50k chars. Salah satunya adalah 285k chars (dari sessions_list.) Ada logika pemangkasan yang memangkas hasil alat dari pesan konteks. buildContextPruningFactory Tetapi model harus "cache-ttl" Penyedia yang memenuhi syarat tampaknya hanya: antropis tembakan bulan Zai Bagi saya, bot saya memberi tahu saya bahwa kode pemangkasan menolak untuk diaktifkan pada penyedia non-Anthropic. Saya sering menggunakan openai-codex 5.3, jadi ketika pemangkasan dikonfigurasi, kode itu ada, hanya diam-diam tidak pernah diaktifkan. OpenAI Responses API menggunakan pemadatan sisi server & OpenClaw secara otomatis mengaktifkan ini untuk model openai langsung sehingga OpenAI menangani pemadatan di sisi mereka. Tapi saya menggunakan openai-codex/*, bukan openai/*. Jalur Codex OAuth melalui runtime yang berbeda (tampaknya pi-ai), bukan Responses API. Jadi: • pemangkasan cache-ttl > Hanya Anthropic • Pemadatan sisi server OpenAI > API openai langsung saja • LCM/lossless-claw > tidak memangkas hasil alat lama afaik Bot saya bersikeras jalur openai-codex tidak mendapatkan jalur pemangkasan. Jadi saya ditinggalkan dengan bot yang mengandalkan fungsi pemotongan darurat truncateOversizedToolResultsInSession terlalu sering sebagai pemulihan luapan upaya terakhir tanpa pemangkasan / perlindungan pencegahan. Karena LCM/lossless-claw tidak memiliki manajemen hasil alatnya sendiri, ia mewarisi transkrip besar yang besar dan harus bekerja ekstra keras untuk meringkas node DAG. Saya tidak memiliki pemeliharaan sesi dan sesi yang panjang sehingga tidak ada yang membatasi transkrip dari waktu ke waktu yang menghasilkan: 4.707 hasil alat menumpuk selamanya dalam file 81MB, tanpa mekanisme runtime yang benar-benar membersihkannya. Ketika bot saya mulai men-debug, ia mulai menelan kesalahan dan membuang teks besar ke sesi utama, kemudian terjebak dalam loop itu dan mati kemudian harus melakukannya lagi, memperparah masalah. Saya bingung bagaimana mengatasi masalah ini, kedalamannya berlapis-lapis.
@quinnzeda Tapi Anda mungkin benar... Saya mungkin harus mengambil cuti seminggu sebelum mencoba ini.
1,47K