Vi har bygget en automatisk forskningssløyfe for utvikling av DeFi-strategier slik at du kan implementere vinnende strategier til papirhandel og (snart) live gjennomføring. Inspirert av @karpathy sin autoforskning, men i stedet for å optimalisere LLM-trening, optimaliserer den backtests. Agenten itererer til den finner strategier som faktisk fungerer 👇
Andrej Karpathy
Andrej Karpathy8. mars, 03:53
Jeg pakket sammen "autoresearch"-prosjektet i et nytt, selvstendig minimalt repo hvis folk vil spille i helgen. Det er i bunn og grunn nanochat LLM-treningskjerne strippet ned til en enkelt-GPU, én fil-versjon med ~630 linjer kode, og så: - mennesket itererer på prompten (.md) - AI-agenten itererer på treningskoden (.py) Målet er å få agentene dine til å oppnå raskest mulig forskningsfremgang på ubestemt tid og uten egen involvering. På bildet er hver prikk en komplett LLM-trening som varer nøyaktig 5 minutter. Agenten jobber i en autonom sløyfe på en git-funksjonsgren og akkumulerer git-commits til treningsskriptet etter hvert som den finner bedre innstillinger (med lavere valideringstap mot slutten) i den nevrale nettverksarkitekturen, optimalisatoren, alle hyperparameterne osv. Du kan tenke deg å sammenligne forskningsfremdriften til ulike prompts, forskjellige agenter osv. Delvis kode, delvis sci-fi, og en klype psykose :)
Slik fungerer det: • Starter med deterministiske forbedringspass • Deretter gir de videre til LLM for å fortsette å presse på • Målet er å maksimere backtest-resultatet autonomt Mennesket setter retningen. Agenten gjør grinden.
Du kan kjøre det selv i dag: → Klon dette repoet: → Hent Wayfinder- og Kimi 2.5 API-nøkler → Slipp løs! → Jam på det i Discords #builders-kanal: Slik ser autonom DeFi-forskning ut.
1,5K