We hebben een automatische onderzoeksloop gebouwd voor DeFi-strategieontwikkeling, zodat je winnende strategieën kunt inzetten voor paper trading en (binnenkort) live uitvoering. Geïnspireerd door @karpathy's automatische onderzoek, maar in plaats van het optimaliseren van LLM-training, optimaliseert het backtests. De agent herhaalt totdat hij strategieën vindt die daadwerkelijk werken 👇
Andrej Karpathy
Andrej Karpathy8 mrt, 03:53
Ik heb het "autoresearch" project verpakt in een nieuwe zelfstandige minimale repo als mensen in het weekend willen spelen. Het is in wezen de kern van nanochat LLM-training, teruggebracht tot een versie met één GPU en één bestand van ~630 regels code, dan: - de mens werkt aan de prompt (.md) - de AI-agent werkt aan de trainingscode (.py) Het doel is om je agents te ontwerpen zodat ze de snelste onderzoeksvoortgang oneindig maken zonder enige betrokkenheid van jouw kant. In de afbeelding is elke stip een complete LLM-trainingsronde die precies 5 minuten duurt. De agent werkt in een autonome lus op een git feature branch en accumuleert git-commits naar het trainingsscript terwijl het betere instellingen vindt (met een lagere validatieverlies aan het einde) van de architectuur van het neurale netwerk, de optimizer, alle hyperparameters, enz. Je kunt je voorstellen dat je de onderzoeksvoortgang van verschillende prompts, verschillende agents, enz. vergelijkt. Deel code, deel sci-fi, en een snufje psychose :)
Hoe het werkt: • Begint met deterministische verbeteringsrondes • Geeft het vervolgens door aan LLM om verder te duwen • Doel is om het backtestresultaat autonoom te maximaliseren Mens stelt de richting in. Agent doet het werk.
Je kunt het vandaag zelf uitvoeren: → Clone deze repo: → Pak de Wayfinder en Kimi 2.5 API-sleutels → Laat het los! → Jam ermee in ons Discord's #builders kanaal: Dit is hoe autonome DeFi-onderzoek eruitziet.
1,51K