Har lekt med självhostad inferens och har märkt något konstigt Det verkar som att Anthropic-API:t (/v1/messages) ger bättre resultat än OpenAI-kompatibla API:et (/v1/chat/completions) även med samma backingmodell / parametrar Några teorier om vad som kan pågå?