🚨 ÚLTIMA HORA: pesquisadores plantaram um único ator malicioso dentro de um grupo de agentes do LLM. Toda a rede não conseguiu chegar a consenso. este é o Problema dos Generais Bizantinos. um pesadelo de sistemas distribuídos de 40 anos. E agora esse é o problema do seu pipeline de agentes também. em ambientes totalmente benignos, sem nenhum ator malicioso, os agentes do LLM ainda não conseguem convergir em valores compartilhados. E piora conforme você adiciona mais agentes ao grupo. O modo de falha é revelador. Não é corrupção sutil de valores. Não é um agente dando uma resposta errada. As modelos simplesmente... Enrolar. Eles acabam de tempo. Eles ficam em círculos. A conversa nunca chega a um acordo. isso importa porque toda a propaganda da IA multiagente assume que a coordenação funciona. enxames autônomos de agentes, resolução colaborativa de problemas, sistemas de IA descentralizados. tudo isso pressupõe que, se você colocar vários LLMs em uma sala e dar um protocolo, eles vão convergir para uma decisão compartilhada. O consenso bizantino é um dos problemas mais antigos e estudados em sistemas distribuídos. Algoritmos clássicos o resolveram décadas atrás com garantias matemáticas rigorosas. a questão era se agentes de LLM poderiam alcançar o mesmo por meio de comunicação em linguagem natural em vez de protocolos formais. A resposta, pelo menos por enquanto, é não. E o motivo vale a pena pensar. Algoritmos tradicionais de consenso funcionam porque cada nó segue um protocolo determinístico idêntico. LLMs são estocásticos. O mesmo prompt produz saídas diferentes entre as sequências. Um acordo que vale na Rodada 3 pode se dissolver na Rodada 4, à medida que os agentes revisam seu raciocínio após verem as respostas dos pares. Esse é o descompasso fundamental: protocolos de consenso assumem máquinas de estados determinísticas. LLMs são o oposto disso. Também significa que "mais agentes = melhores respostas" tem um teto que ninguém está medindo. Em algum tamanho de grupo, falhas de coordenação e convergência superam qualquer benefício de perspectivas diversas. A implicação prática é desconfortável para quem constrói sistemas multiagente para tarefas de alto risco. Acordo confiável não é uma característica emergente de colocar agentes inteligentes em conversa. Precisa ser planejada explicitamente, com garantias formais, não esperada para que exista. Estamos implantando sistemas multiagente em finanças, saúde e infraestrutura autônoma. E o problema do consenso, o primitivo mais básico da coordenação, ainda não foi resolvido.