estive a brincar com a inferência auto-hospedada e notei algo estranho parece que a API da Anthropic (/v1/messages) dá melhores resultados do que a API compatível com a OpenAI (/v1/chat/completions), mesmo com o mesmo modelo / parâmetros de suporte alguma teoria sobre o que pode estar a acontecer?