Populaire onderwerpen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Je AI is stilletjes alles vergeten wat je het vertelde.
Niet willekeurig. Niet luid. Systematisch. Begonnen met de beslissingen die het belangrijkst zijn.
> De beperking die je drie maanden geleden stelde "gebruik nooit Redis, de klant heeft het na een productie-incident afgewezen." Weg. De GDPR-implementatieregio beperking. Weg. De retry-limiet die je empirisch testte na de cascade-fout. Weg.
> Het model heeft je dit nooit verteld. Het begon gewoon standaardinstellingen te gebruiken.
> Dit wordt contextrot genoemd. En onderzoekers van Cambridge en Independent hebben net precies gekwantificeerd hoe erg het is.
> Elk productie-AI-systeem dat lang genoeg draait, zal uiteindelijk zijn context comprimeren om ruimte te maken voor nieuwe informatie. Die compressie is catastrofaal verlieslatend. Ze testten het direct: 2.000 feiten gecomprimeerd met 36,7× lieten 60% van de kennisbasis permanent onherstelbaar achter. Niet gehallucineerd. Niet fout. Gewoon weg. Het model meldde eerlijk dat het de informatie niet meer had.
> Toen testten ze iets ergers. Ze verwerkten 20 echte projectbeperkingen in een 88-beurten gesprek, de soort beperkingen die van nature ontstaan in elk langdurig project, en pasten cascaderende compressie toe precies zoals productie systemen doen. Na één ronde: 91% bewaard. Na twee rondes: 62%. Na drie rondes: 46%.
> Het model bleef de hele tijd met volle vertrouwen werken. Het genereerde outputs die de vergeten beperkingen schonden. Geen foutsignaal. Geen waarschuwing. Gewoon stille terugkeer naar redelijke standaardinstellingen die toevallig verkeerd waren voor jouw specifieke situatie.
> Ze testten dit over vier grensmodellen. Claude Sonnet 4.5, Claude Sonnet 4.6, Opus, GPT-5.4. Elk van hen stortte in onder compressie. Dit is geen modelprobleem. Het is architectonisch.
→ 60% van de feiten permanent verloren na een enkele compressiepass
→ 54% van de projectbeperkingen weg na drie rondes van cascaderende compressie
→ GPT-5.4 viel terug naar 0% nauwkeurigheid bij slechts 2× compressie
→ Zelfs Opus behield slechts 5% van de feiten bij 20× compressie
→ In-context geheugen kost $14.201/jaar bij 7.000 feiten versus $56/jaar voor het alternatief
De AI-laboratoria weten dit. Hun oplossing is grotere contextvensters. Een venster van 10M tokens is een grotere emmer. Het blijft een emmer. Compactie is onvermijdelijk voor elk langdurig systeem. De grootte van het venster bepaalt alleen wanneer het vergeten begint, niet of het gebeurt.

Boven
Positie
Favorieten
