Et kinesisk AI-laboratorium har nettopp stille og rolig lansert en modell som har trent seg til å forbedre seg med 30 % 🤯 @MiniMax_AI-teamet ga M2.7 tilgang til sin egen treningsinfrastruktur. Det er sin egen forsterkende læringspipeline. Sitt eget minne. Så ba de den gjøre seg selv bedre. Og det gjorde det... M2.7 bygde dusinvis av komplekse ferdigheter inne i sin egen RL-sele. Den oppdaterte sine egne minnesystemer. Den optimaliserte sin egen forsterkningslæringsprosess basert på resultater den evaluerte i sanntid. Den kjørte denne løkken autonomt i over 100 runder, analyserte feilbaner, endret sin egen stillaskode, kjørte evalueringer, sammenlignet resultater og bestemte hva som skulle beholdes eller tilbakeføres. Ingen mennesker med i loopen. Bare modellen som forbedrer modellen. Resultatet: - 30 % ytelsesforbedring på interne evalueringer - 66,6 % medaljerate på ML-konkurranser (Dette tangerer Gemini 3.1. SWE-Pro scorer og nesten matcher Claude Opus) MiniMax driver allerede 30 % av hele selskapets drift autonomt på egne modeller. 80 % av den nylig inngitte koden i selskapet er AI-generert. De leverer bokstavelig talt selvforbedring som organisatorisk infrastruktur, og Honk Kong-aksjemarkedet ELSKER det. Dette er de tidlige stadiene av rekursiv selvforbedring. Og det kommer fra Shanghai.