Ich habe mit selbstgehosteter Inferenz experimentiert und etwas Seltsames bemerkt. Es scheint, dass die Anthropic-API (/v1/messages) bessere Ergebnisse liefert als die OpenAI-kompatible API (/v1/chat/completions), selbst mit demselben zugrunde liegenden Modell / den gleichen Parametern. Haben Sie Theorien, was da vor sich gehen könnte?