Subiecte populare
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
AI-ul tău a uitat în liniște tot ce i-ai spus.
Nu întâmplător. Nu tare. Sistematic. Începând cu deciziile care contează cel mai mult.
> Restricția pe care ai impus-o acum trei luni "nu folosi niciodată Redis, clientul a veto-o după un incident de producție." Dispărută. Restricția regiunii de implementare GDPR. Dispărută. Limita de reîncercări pe care ai testat-o empiric după eșecul în cascadă. Dispărută.
> Modelul nu ți-a spus niciodată. Tocmai a început să folosească setările implicite.
> Aceasta se numește putregaiul contextului. Iar cercetătorii de la Cambridge și Independent tocmai au cuantificat exact cât de grav este.
> Orice sistem AI de producție care rulează suficient de mult va comprima în cele din urmă contextul pentru a face loc informațiilor noi. Acea compresie este catastrofal de pierdere. L-au testat direct: 2.000 de fapte comprimate la 36,7× au lăsat 60% din baza de cunoștințe permanent irecuperabilă. Nu a halucinat. Nu greșesc. Pur și simplu a dispărut. Modelul a spus sincer că nu mai are informațiile.
> Apoi au testat ceva mai rău. Au integrat 20 de constrângeri reale de proiect într-o conversație de 88 de ture, genul de constrângeri care apar natural în orice proiect de lungă durată, apoi au aplicat compresie în cascadă, exact ca sistemele de producție. După o rundă: 91% conservat. După două runde: 62%. După trei runde: 46%.
> Modelul a continuat să lucreze cu toată încrederea pe tot parcursul. Generarea de ieșiri care încălcau constrângerile uitate. Niciun semnal de eroare. Fără avertisment. Doar o revenire tăcută la valori implicite rezonabile care s-au dovedit greșite pentru situația ta specifică.
> Au testat acest lucru pe patru modele frontieră. Claude Sonnet 4.5, Claude Sonnet 4.6, Opus, GPT-5.4. Fiecare s-a prăbușit sub compresie. Nu este o problemă de model. Este arhitectural.
→ 60% din fapte pierdute permanent după o singură trecere de compresie
→ 54% din constrângerile proiectului dispar după trei runde de compresie în cascadă
→ GPT-5.4 a scăzut la 0% acuratețe la doar 2× compresie
→ Even Opus a păstrat doar 5% din fapte la compresie de 20×
→ Memoria în context costă 14.201 dolari/an la 7.000 de fapte, comparativ cu 56 dolari/an pentru alternativa
Laboratoarele de AI știu asta. Soluția lor este ferestrele de context mai mari. O fereastră de 10 milioane de jetoane este o găleată mai mare. Tot e o găleată. Compactarea este inevitabilă pentru orice sistem cu funcționare îndelungată. Dimensiunea ferestrei determină doar când începe uitatul, nu dacă se întâmplă.

Limită superioară
Clasament
Favorite
