AI-ul tău a uitat în liniște tot ce i-ai spus. Nu întâmplător. Nu tare. Sistematic. Începând cu deciziile care contează cel mai mult. > Restricția pe care ai impus-o acum trei luni "nu folosi niciodată Redis, clientul a veto-o după un incident de producție." Dispărută. Restricția regiunii de implementare GDPR. Dispărută. Limita de reîncercări pe care ai testat-o empiric după eșecul în cascadă. Dispărută. > Modelul nu ți-a spus niciodată. Tocmai a început să folosească setările implicite. > Aceasta se numește putregaiul contextului. Iar cercetătorii de la Cambridge și Independent tocmai au cuantificat exact cât de grav este. > Orice sistem AI de producție care rulează suficient de mult va comprima în cele din urmă contextul pentru a face loc informațiilor noi. Acea compresie este catastrofal de pierdere. L-au testat direct: 2.000 de fapte comprimate la 36,7× au lăsat 60% din baza de cunoștințe permanent irecuperabilă. Nu a halucinat. Nu greșesc. Pur și simplu a dispărut. Modelul a spus sincer că nu mai are informațiile. > Apoi au testat ceva mai rău. Au integrat 20 de constrângeri reale de proiect într-o conversație de 88 de ture, genul de constrângeri care apar natural în orice proiect de lungă durată, apoi au aplicat compresie în cascadă, exact ca sistemele de producție. După o rundă: 91% conservat. După două runde: 62%. După trei runde: 46%. > Modelul a continuat să lucreze cu toată încrederea pe tot parcursul. Generarea de ieșiri care încălcau constrângerile uitate. Niciun semnal de eroare. Fără avertisment. Doar o revenire tăcută la valori implicite rezonabile care s-au dovedit greșite pentru situația ta specifică. > Au testat acest lucru pe patru modele frontieră. Claude Sonnet 4.5, Claude Sonnet 4.6, Opus, GPT-5.4. Fiecare s-a prăbușit sub compresie. Nu este o problemă de model. Este arhitectural. → 60% din fapte pierdute permanent după o singură trecere de compresie → 54% din constrângerile proiectului dispar după trei runde de compresie în cascadă → GPT-5.4 a scăzut la 0% acuratețe la doar 2× compresie → Even Opus a păstrat doar 5% din fapte la compresie de 20× → Memoria în context costă 14.201 dolari/an la 7.000 de fapte, comparativ cu 56 dolari/an pentru alternativa Laboratoarele de AI știu asta. Soluția lor este ferestrele de context mai mari. O fereastră de 10 milioane de jetoane este o găleată mai mare. Tot e o găleată. Compactarea este inevitabilă pentru orice sistem cu funcționare îndelungată. Dimensiunea ferestrei determină doar când începe uitatul, nu dacă se întâmplă.