Актуальні теми
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
🚨Ніхто не готовий до цієї роботи.
Кожна LLM, яку ви використовуєте, GPT-4.1, Claude, Gemini, DeepSeek, Llama-4, Grok, Qwen має недолік, який жодне масштабування не виправляє.
Вони не можуть відрізнити стару інформацію від нової.
Артеріальний тиск пацієнта: 120 під час сортування. 128 через десять хвилин. 125 при виписці.
"Які останні показники?"
Будь-яка людина: «125, очевидно.»
Кожна LLM, коли накопичується достатньо оновлень: неправильно. Іноді не помиляється. На 100% неправильно. Нульова точність. Повна галюцинація. Кожна модель. Без винятків.
Відповідь лежить у самому кінці введення даних. Прямо перед питанням. Пошуки не потрібні.
Модель просто не може відпустити старі значення.
35 моделей, протестованих дослідниками з UVA та NYU. Усі 35 слідують однаковій математичній кривій смерті. Точність падає лог-лінійно до нуля у міру накопичення застарілої інформації.
Немає плато. Відновлення немає. Просто пряма лінія до повного провалу.
Вони запозичили концепцію з когнітивної психології, яка називається проактивною інтерференцією: старі спогади блокують пригадування нових. У людей цей ефект фіксується на плато. Наш мозок вчиться пригнічувати шум і зосереджуватися на поточному.
LLM ніколи не плато. Вони занепадають, поки не зламаються повністю.
Дослідники перепробували все:
"Забудь старі цінності" — ледве зрушило ситуацію
Ланцюг думок — той самий колапс...

Найкращі
Рейтинг
Вибране
