Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

stokes
AI/ACC-ark.
Ethereum.
Den røde tråden her er ganske interessant
På samme måte som mikroskopet var en muliggjørende teknologi som hjelper oss å forstå verden bedre, er nevrale nettverk i ferd med å bli et slikt verktøy
Selv om man ser bort fra «agent go brr», er den typen tenkning det låser opp en stor sak

himanshu14. mars, 23:41
Jo mer jeg graver i Goodfire Research, jo mer innser jeg hvordan tolkningsgrenen stille og rolig utvikler seg til en av de mest interessante grensene innen AI (og spesielt AI for vitenskap)
De publiserte denne forskningen i fjor med en kjerneidé om hvordan en DNA-grunnlagsmodell internt organiserer arter i sitt innbyggingsrom på en måte som speiler det virkelige evolusjonstreet for liv.
eller i bunn og grunn hvordan modellen gjenoppdaget fylogeni utelukkende fra DNA-sekvenser.
de studerte Evo 2 (DNA-modell utviklet av EvolutionaryScale) og oppdaget at:
+ hver arts genom blir kartlagt til en vektor som legges inn i modellen.
+ Disse innleiringene danner en buet geometrisk struktur (en mangfoldighet).
+ avstander langs denne mangfoldigheten tilsvarer faktisk evolusjonær avstand mellom arter.
Så inne i modellen:
Lignende arter → tette innleiringer
fjerne arter → fjerne innleiringer
Og strukturen som oppstår er i bunn og grunn livets tre.
Dette kan bevise noe banebrytende: hvordan grunnlagsmodeller automatisk kan gjenoppdage vitenskapelige strukturer.

192
Nå må vi (uten ironi) sette det på kjeden
Desci (men ekte denne gangen)

Kydo11. mars, 00:51
Folkens, jeg tror dette kan bli neste OpenClaw.
Karpathy lot en AI-agent optimalisere sin egen nevrale netttreningskode i 2 dager. Den kjørte 700 eksperimenter autonomt. fant 20 forbedringer han hadde gått glipp av etter måneder med manuell tuning. 11 % ytelsesøkning.
Agenten fant Bugs. justerte hyperparametere. oppdaget manglende regularisering. planla sine egne eksperimenter basert på tidligere resultater.
Hva gjorde Karpathy? "Programmering av program.md"
Dette er en mann som har gjort akkurat denne arbeidsflyten for hånd i 20 år. Bygde Tesla Autopilot. Og reaksjonen hans var «vill».
Hvorfor er dette på OpenClaw-nivå?
For OpenClaw var ikke én robot som lærte én oppgave. Det var et rammeverk for agenter til å utføre et helt sett med handlinger
Det samme skjedde bare med forskning/eksperimentering i seg selv.
Karpathy starter allerede runde 2 med samarbeid mellom flere agenter. Han sa det rett ut: «Alle Frontier Labs vil gjøre dette. Det er den siste bosskampen."
Men zoom ut enda mer. Hans egentlige innsikt: «Enhver måleparameter du bryr deg om, som er rimelig effektiv å evaluere, kan autoforskes av en agentsverm.»
Enhver måleparameter du bryr deg om, som er rimelig effektiv å vurdere, kan undersøkes automatisk av en meglersverm.
ADS-utgifter, forsyningskjede, energinett, legemiddeloppdagelse, handelsstrategi, osv... Hvis det kan autoresearches, blir det autoresearchet.
Nå trenger vi infrastrukturen for svermen.
377
Topp
Rangering
Favoritter
