🚨 ÚLTIMA HORA: investigadores plantaron un solo actor malicioso dentro de un grupo de agentes LLM. toda la red no logró alcanzar un consenso. este es el Problema de los Generales Bizantinos. una pesadilla de sistemas distribuidos de 40 años. y ahora también es un problema para tu canal de agentes. en entornos completamente benignos, sin actores maliciosos, los agentes LLM aún fallan en converger en valores compartidos. y se vuelve peor a medida que agregas más agentes al grupo. el modo de fallo es revelador. no es una sutil corrupción de valores. no es un agente colando una respuesta incorrecta. los modelos simplemente... se detienen. se agotan. dan vueltas en círculos. la conversación nunca llega a un acuerdo. esto importa porque todo el bombo sobre la IA multi-agente asume que la coordinación funciona. enjambres de agentes autónomos, resolución colaborativa de problemas, sistemas de IA descentralizados. todo asume que si pones múltiples LLM en una sala y les das un protocolo, convergerán en una decisión compartida. el consenso bizantino es uno de los problemas más antiguos y estudiados en sistemas distribuidos. los algoritmos clásicos lo resolvieron hace décadas con estrictas garantías matemáticas. la pregunta era si los agentes LLM podrían lograr lo mismo a través de la comunicación en lenguaje natural en lugar de protocolos formales. la respuesta, al menos por ahora, es no. y la razón vale la pena reflexionar. los algoritmos de consenso tradicionales funcionan porque cada nodo sigue un protocolo determinista idéntico. los LLM son estocásticos. el mismo aviso produce diferentes salidas en diferentes ejecuciones. un acuerdo que se mantiene en la ronda 3 puede disolverse en la ronda 4 a medida que los agentes revisan su razonamiento después de ver las respuestas de sus pares. este es el desajuste fundamental: los protocolos de consenso asumen máquinas de estado deterministas. los LLM son lo opuesto a eso. también significa que "más agentes = mejores respuestas" tiene un límite que nadie está midiendo. a cierto tamaño de grupo, la sobrecarga de coordinación y los fallos de convergencia superan cualquier beneficio de perspectivas diversas. la implicación práctica es incómoda para cualquiera que esté construyendo sistemas multi-agente para tareas de alto riesgo. un acuerdo fiable no es una propiedad emergente de poner agentes inteligentes en conversación. tiene que ser diseñado explícitamente, con garantías formales, no esperado que exista por sí mismo. estamos desplegando sistemas multi-agente en finanzas, salud, infraestructura autónoma. y el problema del consenso, el más básico de la coordinación, aún no está resuelto.