Populární témata
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Robert Youssef
Tvoje AI tiše zapomíná všechno, co jsi jí řekl.
Ne náhodně. Ne nahlas. Systematicky. Začněme rozhodnutími, která jsou nejdůležitější.
> Omezení, které jste nastavil před třemi měsíci "nikdy nepoužívat Redis, klient to vetoval po incidentu ve výrobě." Pryč. Omezení oblasti nasazení podle GDPR. Pryč. Limit opakování, který jste empiricky testoval po selhání kaskády. Pryč.
> Model ti to nikdy neřekl. Začal používat výchozí nastavení.
> Tomu se říká kontextová hnilba. A výzkumníci z Cambridge a nezávislých jen kvantifikovali, jak špatné to je.
> Každý produkční AI systém, který běží dostatečně dlouho, nakonec stlačí svůj kontext, aby uvolnil místo pro nové informace. Tato komprese je katastrofálně ztrátová. Testovali to přímo: 2 000 faktů zkomprimovaných na 36,7× nechalo 60 % znalostní základny trvale nenapravitelných. Ne halucinace. Není to špatně. Prostě pryč. Model upřímně hlásil, že už tyto informace nemá.
> Pak testovali něco horšího. Do 88kolové konverzace vložili 20 skutečných projektových omezení, takových omezení, která se přirozeně objevují v každém dlouhodobém projektu, a pak aplikovali kaskádovou kompresi přesně tak, jak to dělají produkční systémy. Po jednom kole: 91 % zachováno. Po dvou kolech: 62 %. Po třech kolech: 46 %.
> Model pracoval s plnou důvěrou po celou dobu. Generování výstupů, které porušovaly zapomenutá omezení. Žádný chybový signál. Žádné varování. Jen tichý návrat k rozumným výchozím hodnotám, které se ukázaly být špatné pro vaši konkrétní situaci.
> Testovali to na čtyřech modelech Frontier. Claude Sonet 4.5, Claude Sonet 4.6, Opus, GPT-5.4. Každý jeden se zhroutil pod tlakem. Tohle není problém modelu. Je to architektonické.
→ 60 % faktů trvale ztracených po jednom kompresním průchodu
→ 54 % omezení projektu zmizelo po třech kolech kaskádové komprese
→ GPT-5.4 klesl na 0 % přesnosti při pouhých 2× kompresi
→ Dokonce i Opus si ponechal pouze 5 % faktů při 20× kompresi
→ Paměť v kontextu stojí 14 201 dolarů ročně při 7 000 faktech oproti 56 dolarům ročně u alternativy
AI laboratoře to vědí. Jejich řešením jsou větší kontextová okna. Okno s 10milionovými žetony je větší kbelík. Je to pořád kýbl. Zhutnění je nevyhnutelné u každého dlouhodobě funícího systému. Velikost okna určuje jen to, kdy zapomínání začne, ne jestli k němu dojde.

34
🚨 NOVINKA: vědci zasadili jednoho špatného aktéra do skupiny agentů LLM. Celá síť nedosáhla konsenzu.
to je problém byzantských generálů. Čtyřicet let stará noční můra distribuovaných systémů.
A teď je to i problém vašeho agenta.
v plně neškodných prostředích, bez zlých aktérů, se agenti LLM stále nedokážou sjednotit ke sdíleným hodnotám. A čím víc přidáváte agenty, je to ještě horší.
Způsob selhání je výmluvný. Není to jemná korupce hodnot. Není to jeden agent, který tajně vkládá špatnou odpověď. Modelky prostě... zdržovat. Vyprší čas. Chodí v kruhu. Rozhovor nikdy neskončí na souhlasu.
to je důležité, protože celá multiagentní AI humbuk předpokládá, že koordinace funguje. autonomní agentní roje, spolupracující řešení problémů, decentralizované AI systémy. vše předpokládá, že pokud dáte více LLM do místnosti a dáte jim protokol, dospějí ke společnému rozhodnutí.
Byzantský konsensus je jedním z nejstarších a nejvíce studovaných problémů v distribuovaných systémech. Klasické algoritmy to vyřešily před desítkami let s přísnými matematickými zárukami. otázkou bylo, zda agenti LLM dokážou dosáhnout totéž prostřednictvím komunikace v přirozeném jazyce místo formálních protokolů.
Odpověď, alespoň prozatím, je ne. A důvod stojí za to si s tím sedět.
Tradiční konsenzuální algoritmy fungují, protože každý uzel následuje identický deterministický protokol. LLM jsou stochastické. stejný prompt vytváří různé výstupy napříč běhy. Dohoda, která platí ve 3. kole, se může rozpadnout ve 4. kole, protože agenti po přečtení odpovědí vrstevníků přehodnotí své uvažování.
To je základní nesoulad: konsenzuální protokoly předpokládají deterministické stavové automaty. LLM jsou pravý opak.
Také to znamená, že "více agentů = lepší odpovědi" má strop, který nikdo neměří. Při určité velikosti skupiny převažují koordinační režie a selhání konvergence nad jakýmkoli přínosem z různých perspektiv.
Praktické důsledky jsou nepříjemné pro každého, kdo buduje multiagentní systémy pro úkoly s vysokými sázkami. Spolehlivá dohoda není jen tím, že by chytří agenti začali komunikovat. musí být explicitně navržena, s formálními zárukami, ne doufat, že bude existovat.
Zavádíme multiagentní systémy do financí, zdravotnictví, autonomní infrastruktury. A problém konsenzu, nejzákladnější koordinační primitiv, ještě není vyřešen.

37
Top
Hodnocení
Oblíbené
