🚨 ULTIMA ORĂ: cercetătorii au plantat un singur actor rău intenționat într-un grup de agenți LLM. întreaga rețea nu a reușit să ajungă la un consens. aceasta este Problema Generalilor Bizantini. Un coșmar de 40 de ani al sistemelor distribuite. Și acum este problema și a pipeline-ului tău de agenți. în contexte complet benigne, fără niciun actor rău intenționat, agenții LLM tot nu reușesc să convergă asupra valorilor comune. Și devine mai rău pe măsură ce adaugi mai mulți agenți în grup. Modul de eșec este revelator. Nu este o corupție subtilă a valorilor. Nu e vorba de un agent care a strecurat un răspuns greșit. modelele pur și simplu... să amână. Ei se opresc cu time-out. Se învârt în cerc. Conversația nu ajunge niciodată la un acord. acest lucru contează pentru că toată agitația AI multi-agent presupune că coordonarea funcționează. roiuri de agenți autonomi, rezolvarea colaborativă a problemelor, sisteme AI descentralizate. Totul presupune că, dacă pui mai multe LLM-uri într-o cameră și le dai un protocol, acestea vor converge într-o decizie comună. Consensul bizantin este una dintre cele mai vechi și mai studiate probleme din sistemele distribuite. Algoritmii clasici au rezolvat-o acum decenii, cu garanții matematice stricte. întrebarea era dacă agenții LLM puteau realiza același lucru prin comunicare în limbaj natural în loc de protocoale formale. Răspunsul, cel puțin pentru moment, este nu. Și motivul merită să stai cu asta. Algoritmii tradiționali de consens funcționează deoarece fiecare nod urmează un protocol determinist identic. LLM-urile sunt stocastice. același prompt produce ieșiri diferite între execuții. Un acord valabil în runda a 3-a se poate dizolva în runda 4, pe măsură ce agenții își revizuiesc raționamentul după ce văd răspunsurile colegilor. Aceasta este nepotrivirea fundamentală: protocoalele de consens presupun mașini de stări deterministe. LLM-urile sunt exact opusul. De asemenea, înseamnă că "mai mulți agenți = răspunsuri mai bune" are un plafon pe care nimeni nu-l măsoară. La anumite dimensiuni de grup, eșecurile de coordonare și convergența depășesc orice beneficiu din perspective diverse. Implicația practică este inconfortabilă pentru oricine construiește sisteme multi-agent pentru sarcini cu miză mare. Acordul fiabil nu este o proprietate emergentă a implicării agenților inteligenți. Trebuie să fie concepută explicit, cu garanții formale, nu să fie sperată să apară. Implementăm sisteme multi-agent în finanțe, sănătate, infrastructură autonomă. Iar problema consensului, cea mai de bază primitivă a coordonării, nu este încă rezolvată.