Un laborator chinez AI a lansat discret un model care s-a antrenat să se îmbunătățească cu 30% 🤯 Echipa @MiniMax_AI a oferit M2.7 acces la propria infrastructură de instruire. Propriul său pipeline de învățare prin întărire. Propria lui amintire. Apoi i-au spus să se facă mai bine. Și chiar s-a întâmplat... M2.7 a construit zeci de abilități complexe în propriul său ham RL. Și-a actualizat propriile sisteme de memorie. Și-a optimizat propriul proces de învățare prin întărire pe baza rezultatelor pe care le evalua în timp real. A rulat acest ciclu autonom timp de peste 100 de runde, analizând traiectoriile de defectare, modificându-și propriul cod de schelă, rulând evaluări, comparând rezultatele și hotărând ce să păstreze sau să revină. Niciun om nu este implicat. Doar modelul care îmbunătățește modelul. Rezultatul: - Îmbunătățirea performanței de 30% la evaluările interne - Rata de obținere a medaliilor de 66,6% la competițiile ML (Aceasta îl egalează cu Gemini 3,1. SWE-Pro scorează aproape egalându-l pe Claude Opus) MiniMax gestionează deja 30% din întreaga operațiune a companiei în mod autonom, pe propriile modele. 80% din codul nou angajat al companiei este generat de AI. Ei chiar promovează auto-îmbunătățirea ca infrastructură organizațională, iar piața de capital Honk Kong ADORĂ asta. Acestea sunt etapele timpurii ale auto-îmbunătățirii recursive. Și vine din Shanghai.