Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Wow ! C'est excitant 🍉 Le Composer 2 « auto-développé » de Cursor a été révélé pour contenir Kimi K2.5, et le côté obscur de la lune accuse publiquement : non-respect de la licence, non-paiement des frais !!
Aujourd'hui, le développeur @fynnso a découvert en déboguant les requêtes de l'API Cursor que l'ID du modèle réel de Composer 2 est `kimi-k2p5-rl-0317-s515-fast`, ce qui signifie littéralement « Kimi K2.5 + RL ».
Du Yulun, responsable de la pré-formation chez Moonshot AI, a immédiatement tweeté que l'équipe a testé le tokenizer de Composer 2 et a constaté qu'il était « complètement identique à notre tokenizer Kimi », ajoutant « il est presque certain que c'est le résultat de notre modèle ayant été retravaillé », et a directement interpellé le co-fondateur de Cursor, Michael Truell @mntruell, en questionnant « pourquoi ne pas respecter notre licence et ne pas avoir payé de frais » 😡😡
Lorsque Cursor a lancé Composer 2, ils ont déclaré que l'amélioration des performances provenait de « la première continuation de la pré-formation du modèle de base, combinée à l'apprentissage par renforcement », mais n'ont jamais mentionné Kimi K2.5. Les deux points ne sont pas contradictoires : la continuation de la pré-formation et l'apprentissage par renforcement sont déjà appliqués sur un certain modèle de base, Cursor n'a simplement pas divulgué la source du modèle de base.
À l'heure où nous écrivons, Cursor n'a pas encore répondu publiquement et le tweet original du développeur @fynnso a été supprimé, mais le rédacteur rapide de Rhythm a déjà pris une capture d'écran 😉😉)


Ajout : il semble que ce soit déjà la deuxième fois que le modèle développé en interne par Cursor est soupçonné d'être une version modifiée d'un modèle open source chinois 🙃🙃
En novembre 2025, lors de la sortie de Composer 1, la communauté a découvert que son tokenizer était identique à celui de DeepSeek, et que le modèle produisait des sorties en chinois pendant le processus d'inférence. À l'époque, Cursor n'avait pas non plus divulgué la source de la base.

351
Meilleurs
Classement
Favoris
