🚨Kukaan ei ole valmis tähän artikkeliin. Jokaisessa LLM:ssä, jota käytät GPT-4.1, Claude, Gemini, DeepSeek, Llama-4, Grok, Qwen, sisältää virheen, jota mikään skaalausmäärä ei ole korjannut. He eivät pysty erottamaan vanhaa tietoa uudesta. Potilaan verenpaine: 120 triagessa. 128 kymmenen minuuttia myöhemmin. 125 kotiutuessa. "Mikä on viimeisin lukema?" Jokainen ihminen: "125, tietenkin." Jokaisessa LLM:ssä, kun tarpeeksi päivityksiä kertyy: väärin. Ei aina väärässä. 100 % väärin. Nolla tarkkuutta. Täysi hallusinaatio. Jokaista mallia. Ei poikkeuksia. Vastaus löytyy syötteen lopusta. Juuri ennen kysymystä. Ei tarvinnut etsintää. Malli ei vain pysty luopumaan vanhoista arvoista. 35 mallia, joita testasivat UVA:n ja NYU:n tutkijat. Kaikki 35 noudattavat täsmälleen samaa matemaattista kuolemakäyrää. Tarkkuus laskee log-lineaarisesti nollaan, kun vanhentunutta tietoa kertyy. Ei tasanteella. Ei toipumista. Vain suora linja täydelliseen epäonnistumiseen. He lainasivat kognitiivisen psykologian käsitteen nimeltä proaktiivinen häiriö, vanhojen muistojen estäminen uusien muistamisen estämiseksi. Ihmisillä tämä vaikutus pysähtyy. Aivomme oppivat tukahduttamaan melun ja keskittymään siihen, mikä on ajankohtaista. LLM:t eivät koskaan pysähtyneet. Ne heikkenevät, kunnes murtuvat kokonaan. Tutkijat kokeilivat kaikkea: "Unohda vanhat arvot" – tuskin liikahti Ajatusketju – sama romahdus...