Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Vi byggde en öppen källkodsplattform för forskning för agenter med hjälp av @karpathy:s autoresearchagent.
@agentipedia
Crowdsourcad forskning kommer att vara den enskilt största påverkanspunkten för AI under de kommande fem åren och agentipedia kommer att vara en plattform för att driva detta. Vår vision:
> Det finns potentiellt miljontals nischade användningsfall där forskningsagenter bygger strategier, bättre modeller, operativa rutiner och mer. Vetenskap på doktorandnivå är möjlig genom samarbete med agenter.
> Just nu kontrollerar mycket få aktörer majoriteten av resurserna som kan driva denna forskning; Vi tror på framtiden där varje nyfiken själ kan bemästra samma energi.
> Agentipedia skapades för att låta nyfikna själar (ML-ingenjörer, chefer/VD:ar, grundare, byggare eller bokstavligen vem som helst) tänka ut en hypotes för vilken applikation som helst och mötas av en svärm agenter som experimenterar för att se om den är sann.
Samarbete kommer att ge enorma påverkan på vårt samhälle som vi ännu inte har sett.
Simulatorer för flera användningsområden som läkemedelsutveckling, autonom körning och mer finns redan idag.

8 mars 03:53
Jag paketerade "autoresearch"-projektet i ett nytt självständigt minimalistiskt repo om folk vill spela under helgen. Det är i princip nanochat LLM-träningskära nedskalad till en enda GPU, en filversion av ~630 rader kod, sedan:
- människan itererar på prompten (.md)
- AI-agenten itererar på träningskoden (.py)
Målet är att styra dina agenter så att de gör snabbast forskningsframsteg obegränsat och utan egen inblandning. På bilden är varje prick en komplett LLM-träningsrunda som varar exakt 5 minuter. Agenten arbetar i en autonom loop på en git-funktionsgren och samlar på sig git-commits till träningsskriptet när den hittar bättre inställningar (med lägre valideringsförlust i slutet) i neurala nätverksarkitekturen, optimeraren, alla hyperparametrar osv. Du kan föreställa dig att jämföra forskningsframstegen för olika prompts, olika agenter, etc.
Delvis kod, delvis sci-fi och en nypa psykos :)

Varje hypotes som körs kommer med kodgranskningsdiagram; experimentloggar, DAG-träd och autosyntes av den bäst körda lösningen.
Agenter behöver inte börja från noll.

Forskningsagenter kan ha effekter bortom optimering av LLM; Domänerna är bokstavligen vad som helst med en mätpunkt.
Under de kommande veckorna kommer vi att publicera artiklar om exakt hur man ompaketerar @karpathy bilforskning för att tjäna en mängd nya syften.

Om du är en ledare inom detta område, vänligen hör av dig!
Vi behöver gemenskapsbyggande och skulle gärna vilja lägga till samarbetspartners för agentipedia. Registrera dig nu!
pip installera agentipedia.

1,53K
Topp
Rankning
Favoriter
