O Qodo supera a Revisão de Código do Claude com 19% a mais de recall e custa 10x menos por revisão. Por que isso é importante para os desenvolvedores de IA: @QodoAI acaba de publicar uma comparação usando seu benchmark aberto: 100 pull requests reais, 580 problemas injetados, 8 repositórios de produção em TypeScript, Python, JavaScript, C, C#, Rust e Swift. Todas as três ferramentas atingem 79% de precisão, o que significa que a qualidade das descobertas individuais é comparável. A diferença vem do recall. A Revisão de Código do Claude está em 52%, o Qodo Padrão em 60% e o Qodo Estendido em 71%. É ótimo ver atenção ao recall, que é muito importante neste caso de uso. A precisão pode ser ajustada após o processamento, mas o recall reflete quão profundamente um sistema entende a base de código e raciocina sobre interações entre arquivos. Se um problema nunca é sinalizado, nenhuma quantidade de filtragem ajuda. Ainda mais impressionante é como o agente especializado captura a verdade de fundo restante. O Qodo Estendido implementa um sistema multi-agente onde agentes especializados se concentram em diferentes categorias de problemas (erros lógicos, melhores práticas, casos extremos, dependências entre arquivos), e depois mesclam as saídas através de verificação e deduplicação. Ele também aproveita a diversidade de modelos entre OpenAI, Anthropic e Google, em vez de estar preso a um único fornecedor. Em termos de custo, o Qodo relata preços significativamente mais baixos por revisão em comparação com o modelo baseado em tokens do Claude, que varia de $15 a $25 por revisão.