Tenho brincado com inferências auto-hospedadas e notei algo estranho parece que a API da Anthropic (/v1/messages) dá resultados melhores do que a API compatível com OpenAI (/v1/chat/completions), mesmo com o mesmo modelo de suporte / parâmetros Alguma teoria sobre o que pode estar acontecendo?