Актуальные темы
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Ваш ИИ тихо забыл все, что вы ему сказали.
Не случайно. Не громко. Систематически. Начиная с решений, которые имеют наибольшее значение.
> Ограничение, которое вы установили три месяца назад, "никогда не использовать Redis, клиент наложил вето после инцидента на производстве." Ушло. Ограничение по региону развертывания GDPR. Ушло. Лимит повторных попыток, который вы тестировали эмпирически после каскадного сбоя. Ушло.
> Модель никогда не сообщала вам. Она просто начала использовать значения по умолчанию.
> Это называется ротацией контекста. И исследователи из Кембриджа и Independent только что количественно оценили, насколько это плохо.
> Каждая производственная ИИ-система, работающая достаточно долго, в конечном итоге сжимает свой контекст, чтобы освободить место для новой информации. Это сжатие катастрофически убыточно. Они протестировали это напрямую: 2,000 фактов, сжатых в 36.7×, оставили 60% базы знаний навсегда недоступными. Не галлюцинации. Не ошибки. Просто ушло. Модель честно сообщила, что у нее больше нет этой информации.
> Затем они протестировали что-то хуже. Они встроили 20 реальных ограничений проекта в 88-ходовой разговор, такие ограничения, которые естественным образом возникают в любом долгосрочном проекте, а затем применили каскадное сжатие, точно так же, как это делают производственные системы. После одного раунда: 91% сохранено. После двух раундов: 62%. После трех раундов: 46%.
> Модель продолжала работать с полной уверенностью все это время. Генерируя выходные данные, которые нарушали забытые ограничения. Никакого сигнала об ошибке. Никакого предупреждения. Просто тихое возвращение к разумным значениям по умолчанию, которые оказались неправильными для вашей конкретной ситуации.
> Они протестировали это на четырех передовых моделях. Claude Sonnet 4.5, Claude Sonnet 4.6, Opus, GPT-5.4. Каждая из них рухнула под сжатием. Это не проблема модели. Это архитектурная проблема.
→ 60% фактов навсегда потеряны после одного прохода сжатия
→ 54% ограничений проекта исчезли после трех раундов каскадного сжатия
→ GPT-5.4 упал до 0% точности при сжатии всего лишь в 2×
→ Даже Opus сохранил только 5% фактов при сжатии 20×
→ Память в контексте стоит $14,201/год при 7,000 фактах против $56/год для альтернативы
Лаборатории ИИ знают об этом. Их решение — это большие окна контекста. Окно на 10M токенов — это большее ведро. Это все еще ведро. Уплотнение неизбежно для любой долгосрочной системы. Размер окна только определяет, когда начинается забывание, а не происходит ли оно.

Топ
Рейтинг
Избранное
