🚨 BREAKING: onderzoekers hebben een enkele slechte actor geplant binnen een groep LLM-agenten. het hele netwerk slaagde er niet in om consensus te bereiken. dit is het Byzantijnse Generaalsprobleem. een 40 jaar oude nachtmerrie van gedistribueerde systemen. en het is nu ook een probleem voor jouw agentenpipeline. in volledig goedaardige omgevingen, met nul slechte actoren, falen LLM-agenten nog steeds om overeenstemming te bereiken over gedeelde waarden. en het wordt erger naarmate je meer agenten aan de groep toevoegt. de faalmodus is onthullend. het is geen subtiele waarde corruptie. het is niet één agent die een verkeerd antwoord binnensluipt. de modellen... stagneren gewoon. ze lopen vast. ze draaien in cirkels. het gesprek komt nooit tot overeenstemming. dit is belangrijk omdat de hele hype rond multi-agent AI aanneemt dat coördinatie werkt. autonome agentenzwermen, collaboratieve probleemoplossing, gedecentraliseerde AI-systemen. al het bovenstaande gaat ervan uit dat als je meerdere LLM's in een kamer plaatst en ze een protocol geeft, ze zullen convergeren op een gedeelde beslissing. Byzantijnse consensus is een van de oudste, meest bestudeerde problemen in gedistribueerde systemen. klassieke algoritmen hebben het decennia geleden opgelost met strikte wiskundige garanties. de vraag was of LLM-agenten hetzelfde konden bereiken via natuurlijke taalcommunicatie in plaats van formele protocollen. de antwoord, althans voor nu, is nee. en de reden is het waard om bij stil te staan. traditionele consensusalgoritmen werken omdat elke node een identiek deterministisch protocol volgt. LLM's zijn stochastisch. dezelfde prompt produceert verschillende uitkomsten over runs. een overeenkomst die standhoudt in ronde 3 kan vervagen in ronde 4 naarmate agenten hun redenering herzien na het zien van peerreacties. dit is de fundamentele mismatch: consensusprotocollen gaan uit van deterministische toestandsmachines. LLM's zijn het tegenovergestelde daarvan. het betekent ook dat "meer agenten = betere antwoorden" een plafond heeft dat niemand meet. bij een bepaalde groepsgrootte wegen de coördinatie-overhead en de convergentiefouten zwaarder dan enig voordeel van diverse perspectieven. de praktische implicatie is ongemakkelijk voor iedereen die multi-agent systemen bouwt voor taken met hoge inzet. betrouwbare overeenstemming is geen emergente eigenschap van het in gesprek brengen van slimme agenten. het moet expliciet worden ontworpen, met formele garanties, niet in bestaan worden gehoopt. we zetten multi-agent systemen in op financiën, gezondheidszorg, autonome infrastructuur. en het consensusprobleem, de meest basale coördinatie-primitief, is nog niet opgelost.