Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Vi har bygget en automatisk forskningssløyfe for utvikling av DeFi-strategier slik at du kan implementere vinnende strategier til papirhandel og (snart) live gjennomføring.
Inspirert av @karpathy sin autoforskning, men i stedet for å optimalisere LLM-trening, optimaliserer den backtests.
Agenten itererer til den finner strategier som faktisk fungerer 👇

8. mars, 03:53
Jeg pakket sammen "autoresearch"-prosjektet i et nytt, selvstendig minimalt repo hvis folk vil spille i helgen. Det er i bunn og grunn nanochat LLM-treningskjerne strippet ned til en enkelt-GPU, én fil-versjon med ~630 linjer kode, og så:
- mennesket itererer på prompten (.md)
- AI-agenten itererer på treningskoden (.py)
Målet er å få agentene dine til å oppnå raskest mulig forskningsfremgang på ubestemt tid og uten egen involvering. På bildet er hver prikk en komplett LLM-trening som varer nøyaktig 5 minutter. Agenten jobber i en autonom sløyfe på en git-funksjonsgren og akkumulerer git-commits til treningsskriptet etter hvert som den finner bedre innstillinger (med lavere valideringstap mot slutten) i den nevrale nettverksarkitekturen, optimalisatoren, alle hyperparameterne osv. Du kan tenke deg å sammenligne forskningsfremdriften til ulike prompts, forskjellige agenter osv.
Delvis kode, delvis sci-fi, og en klype psykose :)

Slik fungerer det:
• Starter med deterministiske forbedringspass
• Deretter gir de videre til LLM for å fortsette å presse på
• Målet er å maksimere backtest-resultatet autonomt
Mennesket setter retningen. Agenten gjør grinden.
Du kan kjøre det selv i dag:
→ Klon dette repoet:
→ Hent Wayfinder- og Kimi 2.5 API-nøkler
→ Slipp løs!
→ Jam på det i Discords #builders-kanal:
Slik ser autonom DeFi-forskning ut.
1,5K
Topp
Rangering
Favoritter
