🚨 ÚLTIMA HORA: los investigadores colocaron un solo actor malicioso dentro de un grupo de agentes de LLM. Toda la cadena no logró llegar a un consenso. este es el Problema de los Generales Bizantinos. Una pesadilla de sistemas distribuidos de hace 40 años. Y ahora también es problema de tu pipeline de agentes. en entornos totalmente benignos, sin ningún actor malicioso, los agentes LLM aún no consiguen converger en valores compartidos. Y empeora a medida que añades más agentes al grupo. El modo fallo es revelador. No es corrupción sutil de valores. No es un agente colando una respuesta incorrecta. Los modelos simplemente... Ganar tiempo. Tienen tiempo muerto. Van en círculos. La conversación nunca termina de acuerdo. esto importa porque todo el bombo de la IA multiagente asume que la coordinación funciona. enjambres de agentes autónomos, resolución colaborativa de problemas, sistemas de IA descentralizados. todo esto asume que si pones varios LLMs en una sala y les das un protocolo, convergerán en una decisión compartida. El consenso bizantino es uno de los problemas más antiguos y estudiados en sistemas distribuidos. Los algoritmos clásicos lo resolvieron hace décadas con garantías matemáticas estrictas. la cuestión era si los agentes LLM podían lograr lo mismo mediante comunicación en lenguaje natural en lugar de protocolos formales. La respuesta, al menos por ahora, es no. Y la razón merece la pena sentarse con ella. Los algoritmos de consenso tradicionales funcionan porque cada nodo sigue un protocolo determinista idéntico. Los LLM son estocásticos. El mismo prompt produce salidas diferentes entre las ejecuciones. Un acuerdo que se cumple en la ronda 3 puede disolverse en la ronda 4 cuando los agentes revisan su razonamiento tras ver las respuestas de sus compañeros. Este es el desajuste fundamental: los protocolos de consenso asumen máquinas de estados deterministas. Los LLMs son todo lo contrario. También significa que "más agentes = mejores respuestas" tiene un techo que nadie mide. En cierto tamaño de grupo, los fallos de coordinación y convergencia superan cualquier beneficio desde perspectivas diversas. La implicación práctica resulta incómoda para cualquiera que construya sistemas multiagente para tareas de alto riesgo. Un acuerdo fiable no es una propiedad emergente de poner en conversación a agentes inteligentes. Debe ser diseñado explícitamente, con garantías formales, no con la esperanza de que exista. Estamos desplegando sistemas multiagente en finanzas, sanidad e infraestructuras autónomas. Y el problema del consenso, la primitiva de coordinación más básica, aún no está resuelto.