Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
🚨 NOTÍCIA DE ÚLTIMA HORA: pesquisadores plantaram um único agente malicioso dentro de um grupo de agentes LLM. toda a rede falhou em alcançar consenso.
este é o Problema dos Generais Bizantinos. um pesadelo de sistemas distribuídos com 40 anos.
e agora é também o problema do seu pipeline de agentes.
em configurações totalmente benignas, sem agentes maliciosos, os agentes LLM ainda falham em convergir em valores compartilhados. e isso piora à medida que você adiciona mais agentes ao grupo.
o modo de falha é revelador. não é uma corrupção sutil de valores. não é um agente introduzindo uma resposta errada. os modelos simplesmente... travam. eles expiram. eles ficam dando voltas. a conversa nunca chega a um acordo.
isso importa porque todo o hype em torno da IA multi-agente assume que a coordenação funciona. enxames de agentes autônomos, resolução colaborativa de problemas, sistemas de IA descentralizados. tudo isso assume que se você colocar múltiplos LLMs em uma sala e lhes der um protocolo, eles convergirão em uma decisão compartilhada.
o consenso bizantino é um dos problemas mais antigos e estudados em sistemas distribuídos. algoritmos clássicos o resolveram há décadas com garantias matemáticas rigorosas. a questão era se os agentes LLM poderiam alcançar a mesma coisa através da comunicação em linguagem natural em vez de protocolos formais.
a resposta, pelo menos por enquanto, é não. e a razão vale a pena refletir.
os algoritmos de consenso tradicionais funcionam porque cada nó segue um protocolo determinístico idêntico. os LLMs são estocásticos. o mesmo prompt produz saídas diferentes em execuções. um acordo que se mantém na rodada 3 pode se dissolver na rodada 4 à medida que os agentes revisam seu raciocínio após ver as respostas dos pares.
este é o descompasso fundamental: os protocolos de consenso assumem máquinas de estado determinísticas. os LLMs são o oposto disso.
isso também significa que "mais agentes = melhores respostas" tem um teto que ninguém está medindo. em algum tamanho de grupo, a sobrecarga de coordenação e as falhas de convergência superam qualquer benefício de perspectivas diversas.
a implicação prática é desconfortável para quem está construindo sistemas multi-agente para tarefas de alto risco. um acordo confiável não é uma propriedade emergente de colocar agentes inteligentes em conversa. ele precisa ser projetado explicitamente, com garantias formais, não apenas esperado que exista.
estamos implantando sistemas multi-agente em finanças, saúde, infraestrutura autônoma. e o problema do consenso, o primitivo de coordenação mais básico, ainda não está resolvido.

Top
Classificação
Favoritos
