Subiecte populare
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
🚨Nimeni nu este pregătit pentru această lucrare.
Fiecare LLM pe care îl folosești, GPT-4.1, Claude, Gemini, DeepSeek, Llama-4, Grok, Qwen are un defect pe care nicio scalare nu l-a corectat.
Nu pot deosebi informațiile vechi de cele noi.
Tensiunea arterială a pacientului: 120 la triaj. 128, zece minute mai târziu. 125 la externare.
"Care este cea mai recentă citire?"
Orice om: "125, evident."
La fiecare LLM, odată ce se adună suficiente actualizări: greșit. Nu uneori greșește. 100% greșit. Nicio acuratețe. Halucinație completă. Fiecare model. Fără excepții.
Răspunsul se află chiar la finalul inputului. Chiar înainte de întrebare. Nu e nevoie de căutări.
Modelul pur și simplu nu poate renunța la valorile vechi.
35 de modele testate de cercetători de la UVA și NYU. Toate cele 35 urmează exact aceeași curbă matematică a morții. Acuratețea scade logaritar liniar până la zero pe măsură ce se acumulează informații depășite.
Niciun platou. Nicio recuperare. Doar o linie dreaptă spre eșecul total.
Au împrumutat un concept din psihologia cognitivă numit interferență proactivă: amintiri vechi, blocarea amintirilor noi. La oameni, acest efect stagnează. Creierul nostru învață să suprime zgomotul și să se concentreze pe ceea ce este actual.
LLM-urile nu ating niciodată un platou. Ei declină până când cedează complet.
Cercetătorii au încercat totul:
"Uită de vechile valori" – abia dacă mișca acul
Lanțul de gândire - aceeași prăbușire...

Limită superioară
Clasament
Favorite
