Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Twoja AI cicho zapomina wszystko, co jej powiedziałeś.
Nie losowo. Nie głośno. Systematycznie. Zaczynając od decyzji, które mają największe znaczenie.
> Ograniczenie, które ustawiłeś trzy miesiące temu "nigdy nie używaj Redis, klient to zablokował po incydencie produkcyjnym." Zniknęło. Ograniczenie regionu wdrożenia GDPR. Zniknęło. Limit ponownych prób, który testowałeś empirycznie po awarii kaskadowej. Zniknął.
> Model nigdy ci o tym nie powiedział. Po prostu zaczął używać domyślnych ustawień.
> To nazywa się rotacja kontekstu. A badacze z Cambridge i Independent właśnie dokładnie określili, jak poważny jest to problem.
> Każdy produkcyjny system AI, który działa wystarczająco długo, ostatecznie skompresuje swój kontekst, aby zrobić miejsce na nowe informacje. Ta kompresja jest katastrofalnie stratna. Testowali to bezpośrednio: 2,000 faktów skompresowanych w 36.7× pozostawiło 60% bazy wiedzy na stałe nieodwracalnej. Nie halucynowane. Nie błędne. Po prostu zniknęło. Model szczerze zgłosił, że nie ma już tych informacji.
> Następnie przetestowali coś gorszego. Wbudowali 20 rzeczywistych ograniczeń projektowych w 88-rundową rozmowę, rodzaj ograniczeń, które naturalnie pojawiają się w każdym długoterminowym projekcie, a następnie zastosowali kaskadową kompresję dokładnie tak, jak robią to systemy produkcyjne. Po jednej rundzie: 91% zachowane. Po dwóch rundach: 62%. Po trzech rundach: 46%.
> Model działał z pełnym zaufaniem przez cały czas. Generując wyniki, które naruszały zapomniane ograniczenia. Brak sygnału błędu. Brak ostrzeżenia. Po prostu cicha regresja do rozsądnych domyślnych ustawień, które okazały się błędne w twojej konkretnej sytuacji.
> Testowali to na czterech modelach granicznych. Claude Sonnet 4.5, Claude Sonnet 4.6, Opus, GPT-5.4. Każdy z nich załamał się pod wpływem kompresji. To nie jest problem modelu. To problem architektoniczny.
→ 60% faktów na stałe utraconych po pojedynczej kompresji
→ 54% ograniczeń projektowych zniknęło po trzech rundach kaskadowej kompresji
→ GPT-5.4 spadł do 0% dokładności przy zaledwie 2× kompresji
→ Nawet Opus zachował tylko 5% faktów przy 20× kompresji
→ Pamięć kontekstowa kosztuje 14,201 USD/rok przy 7,000 faktach w porównaniu do 56 USD/rok za alternatywę
Laboratoria AI wiedzą o tym. Ich rozwiązaniem są większe okna kontekstowe. Okno o wielkości 10M tokenów to większy pojemnik. To wciąż pojemnik. Kompresja jest nieunikniona dla każdego długoterminowego systemu. Rozmiar okna tylko określa, kiedy zaczyna się zapominanie, a nie czy to się zdarzy.

Najlepsze
Ranking
Ulubione
