Trendaavat aiheet
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Tekoälysi on hiljaa unohtanut kaiken, mitä kerroit sille.
Ei sattumalta. Ei kovaa. Järjestelmällisesti. Aloitetaan päätöksistä, jotka ovat tärkeimpiä.
> Kolme kuukautta sitten asettamasi rajoitus "älä koskaan käytä Redisiä, asiakas käytti veto-ottoaan tuotantotapauksen jälkeen." Poissa. GDPR:n käyttöönottoalueen rajoitus. Poissa. Uudelleenyrittämisraja, jonka testasit empiirisesti kaskadivirheen jälkeen. Poissa.
> Malli ei koskaan kertonut sinulle. Se alkoi vain käyttää oletuksia.
> Tätä kutsutaan kontekstin lahoamiseksi. Ja Cambridgen ja riippumattomien tutkijoiden mukaan se on tarkalleen määrällinen.
> Jokainen tuotantopohjainen tekoälyjärjestelmä, joka toimii tarpeeksi kauan, tiivistää lopulta kontekstinsa tehdäkseen tilaa uudelle tiedolle. Tuo puristus on katastrofaalisen häviöllinen. He testasivat sitä suoraan: 2 000 faktaa tiivistettynä 36,7× jätti 60 % tietokannasta pysyvästi palautumatta. Ei hallusinaatioita. Ei väärin. Vain poissa. Malli kertoi rehellisesti, ettei sillä ollut enää tietoa siitä.
> Sitten he testasivat jotain pahempaa. He upottivat 20 todellista projektirajoitetta 88 kierroksen keskusteluun, sellaisia rajoitteita, jotka syntyvät luonnostaan missä tahansa pitkäkestoisessa projektissa, ja sitten sovelsivat ketjureaktiota täsmälleen kuten tuotantojärjestelmät. Yhden kierroksen jälkeen: 91 % säilyi. Kahden kierroksen jälkeen: 62 %. Kolmen kierroksen jälkeen: 46 %.
> Malli toimi koko ajan täysin itsevarmasti. Tuottaen tuloksia, jotka rikkoivat unohdetut rajoitteet. Ei virhesignaalia. Ei varoitusta. Vain hiljainen palautus kohtuullisiin oletusarvoihin, jotka sattuivat olemaan vääriä juuri sinun tilanteeseesi.
> He testasivat tätä neljässä Frontier-mallissa. Claude Sonnet 4.5, Claude Sonnet 4.6, Opus, GPT-5.4. Jokainen niistä romahti puristuksen alla. Tämä ei ole malliongelma. Se on arkkitehtoninen.
→ 60 % faktoista katoaa pysyvästi yhden pakkauskierroksen jälkeen
→ 54 % projektin rajoituksista poistui kolmen ketjureaktiokierroksen jälkeen
→ GPT-5.4 laski 0 %:n tarkkuuteen vain 2× pakkauksella
→ Jopa Opus säilytti vain 5 % faktoista 20× pakkauksella
→ Kontekstissa oleva muisti maksaa 14 201 dollaria vuodessa 7 000 faktalla, kun taas vaihtoehtoinen 56 dollaria vuodessa
Tekoälylaboratoriot tietävät tämän. Heidän ratkaisunsa on suuremmat kontekstiikkunat. 10 miljoonan tokenin ikkuna on suurempi ämpäri. Se on silti ämpäri. Tiivistyminen on väistämätöntä kaikille pitkäaikaisille järjestelmille. Ikkunan koko määrittää vain, milloin unohtaminen alkaa, ei tapahtuuko se.

Johtavat
Rankkaus
Suosikit
