Актуальные темы
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
🚨 Никто не готов к этой статье.
Каждая LLM, которую вы используете: GPT-4.1, Claude, Gemini, DeepSeek, Llama-4, Grok, Qwen, имеет недостаток, который не исправил ни один масштаб.
Они не могут отличить старую информацию от новой.
Кровяное давление пациента: 120 при первичном осмотре. 128 через десять минут. 125 при выписке.
"Какое последнее показание?"
Любой человек: "125, очевидно."
Каждая LLM, как только накопится достаточно обновлений: ошибается. Не иногда ошибается. 100% ошибается. Нулевая точность. Полная галлюцинация. Каждая модель. Без исключений.
Ответ находится в самом конце ввода. Прямо перед вопросом. Поиск не нужен.
Модель просто не может отпустить старые значения.
35 моделей протестировали исследователи из UVA и NYU. Все 35 следуют точно такой же математической кривой смерти. Точность логарифмически падает до нуля по мере накопления устаревшей информации.
Нет плато. Нет восстановления. Просто прямая линия к полной неудаче.
Они заимствовали концепцию из когнитивной психологии, называемую проактивным вмешательством: старые воспоминания блокируют воспоминания о новых. У людей этот эффект достигает плато. Наши мозги учатся подавлять шум и сосредотачиваться на том, что актуально.
LLM никогда не достигают плато. Они падают, пока не сломаются полностью.
Исследователи пробовали все:
"Забудьте старые значения" - едва сдвинуло ситуацию
Цепочка размышлений - тот же коллапс...

Топ
Рейтинг
Избранное
