Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Vi bygde en åpen kildekode-forskningsplattform for agenter ved å bruke @karpathy sin autoresearch-agent.
@agentipedia
Folkebasert forskning vil være det største enkeltpunktet for AI de neste fem årene, og agentipedia vil være en plattform for å drive dette. Vår visjon:
> Det finnes potensielt millioner av nisjebrukstilfeller der forskningsagenter bygger strategier, bedre modeller, driftsprosedyrer og mer. Vitenskap på doktorgradsnivå er mulig gjennom samarbeid mellom agenter.
> Akkurat nå er det svært få enheter som kontrollerer det store flertallet av ressursene som kan drive denne forskningen; Vi tror på fremtiden hvor enhver nysgjerrig sjel kan utnytte den samme energien.
> Agentipedia ble opprettet for å la nysgjerrige sjeler (ML-ingeniører, ledere/CEO-er, grunnleggere, byggere eller bokstavelig talt hvem som helst) tenke ut en hypotese for enhver anvendelse og bli møtt av en sverm av agenter som eksperimenterer for å se om den er sann.
Samarbeid vil gi store innvirkninger på samfunnet vårt som vi ennå ikke har sett.
Simulatorer for flere bruksområder som (legemiddeloppdagelse, autonom kjøring) og flere eksisterer allerede i dag.

8. mars, 03:53
Jeg pakket sammen "autoresearch"-prosjektet i et nytt, selvstendig minimalt repo hvis folk vil spille i helgen. Det er i bunn og grunn nanochat LLM-treningskjerne strippet ned til en enkelt-GPU, én fil-versjon med ~630 linjer kode, og så:
- mennesket itererer på prompten (.md)
- AI-agenten itererer på treningskoden (.py)
Målet er å få agentene dine til å oppnå raskest mulig forskningsfremgang på ubestemt tid og uten egen involvering. På bildet er hver prikk en komplett LLM-trening som varer nøyaktig 5 minutter. Agenten jobber i en autonom sløyfe på en git-funksjonsgren og akkumulerer git-commits til treningsskriptet etter hvert som den finner bedre innstillinger (med lavere valideringstap mot slutten) i den nevrale nettverksarkitekturen, optimalisatoren, alle hyperparameterne osv. Du kan tenke deg å sammenligne forskningsfremdriften til ulike prompts, forskjellige agenter osv.
Delvis kode, delvis sci-fi, og en klype psykose :)

Hver hypotese som kjøres kommer med kodegjennomgangsdiagrammer; eksperimentlogger, DAG-trær og autosyntese av den best kjørte løsningen.
Agenter trenger ikke å starte fra 0.

Forskningsagenter kan ha innvirkninger utover LLM-optimalisering; Domenene er bokstavelig talt alt med en måleparameter.
I løpet av de neste ukene vil vi lansere artikler om nøyaktig hvordan vi kan ompakke @karpathy sin bilforskning for å tjene en rekke nye formål.

Hvis du er en leder på dette området, ta gjerne kontakt!
Vi trenger fellesskapsbygging, og vil gjerne legge til samarbeidspartnere for agentipedia. Registrer deg nå!
pip install agentipedia.

1,45K
Topp
Rangering
Favoritter
