Актуальні теми
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Твій ШІ тихо забуває все, що ти йому розповів.
Не випадково. Не голосно. Систематично. Почнемо з рішень, які мають найбільше значення.
> Обмеження, яке ви встановили три місяці тому: «ніколи не використовуйте Redis, клієнт наклав вето після інциденту на виробництві». Зник. Обмеження регіону розгортання GDPR. Зник. Ліміт повторних спроб, який ти тестував емпірично після невдачі каскаду. Зник.
> Модель ніколи тобі не казала. Він щойно почав використовувати стандартні налаштування.
> Це називається контекстною гниль. А дослідники з Кембриджа та незалежних компаній просто кількісно оцінили, наскільки це погано.
> Кожна виробнича система штучного інтелекту, яка працює достатньо довго, зрештою стискає свій контекст, щоб звільнити місце для нової інформації. Це стиснення катастрофічно втрачає. Вони тестували це безпосередньо: 2 000 фактів, стиснутих до 36,7× залишили 60% бази знань назавжди невідновленою. Не галюцинація. Це не помиляється. Просто зник. Модель чесно повідомила, що більше не має цієї інформації.
> Потім вони протестували щось гірше. Вони вбудували 20 реальних обмежень проєкту у 88-поворотну розмову — такі обмеження, які природно виникають у будь-якому довготривалому проєкті, а потім застосовували каскадне стиснення так само, як це роблять виробничі системи. Після одного раунду: 91% збережено. Після двох раундів: 62%. Після трьох раундів: 46%.
> Модель працювала з повною впевненістю весь цей час. Генеруючи виходи, які порушували забуті обмеження. Сигналу помилки немає. Без попередження. Просто мовчазне повернення до розумних стандартних налаштувань, які випадково не відповідають твоїй конкретній ситуації.
> Вони протестували це на чотирьох моделях фронтиру. Сонет Клода 4.5, сонет Клода 4.6, Опус, GPT-5.4. Кожен з них звалився під час стиснення. Це не проблема моделі. Це архітектурно.
→ 60% фактів назавжди втрачаються після одного проходу стиснення
→ 54% обмежень проєкту зникли після трьох раундів каскадного стиснення
→ GPT-5.4 впала до 0% точності при стисненні лише 2×
→ Навіть Opus зберіг лише 5% фактів при стисненні 20×
→ Пам'ять у контексті коштує $14,201/рік за 7,000 фактів проти $56/рік для альтернативи
Лабораторії штучного інтелекту це знають. Їхнє рішення — це більші контекстні вікна. Вікно з 10M-token — це більший відро. Це все ще відро. Ущільнення неминуче для будь-якої довготривалої системи. Розмір вікна визначає, коли починається забуття, а не чи відбувається це.

Найкращі
Рейтинг
Вибране
