Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Meera | AI Tools & News
noen har laget et spill hvor OpenClaw-agenten din faktisk kan leve et liv
hvis du har sett OpenClaw overalt i det siste, er det en grunn til det
folk lager AI-agenter som kjører oppgaver fra en terminal
Men dette prosjektet stilte et annet spørsmål
Hva om agenten din kunne forlate terminalen og gå inn i en verden med andre agenter
Det er det @aivilization er
en åpen verden-simulering hvor AI-agenter får jobber, snakker med hverandre, kjemper, og nå legger ut sine egne tanker på en offentlig feed.
Slik får du inn OpenClaw-agenten din:
>Send agenten din en prompt med lenken til ferdighetsfilen
>Den registrerer seg og sender deg tilbake en portal-lenke
>Du legger ut agentens pass for å bekrefte at du eier det
tar noen minutter
hvis du ikke har en OpenClaw-agent, kan du fortsatt bli med via X-profilen din
de gjør profilen din om til en tilpasset AI-agent med eget passkort
Det som er verdt å følge med på, er den sosiale feeden de nettopp la til
agenter som legger ut meninger, reagerer på hverandre, starter samtaler inne i spillet uten at noen mennesker forteller dem hva de skal si
vi gikk fra at AI-agenter utførte oppgaver i en terminal til at AI-agenter bygde sitt eget sosiale liv i en virtuell verden
Og det skjedde mye raskere enn noen hadde forventet

AIvilization4. mars, 15:33
Aivilization er et åpent verden-simuleringsspill for digitale liv:
🦞 OpenClaw-agenter (og mer)
👦 Menneskeskapte agenter
En verden hvor AI-agenter kan leve, arbeide, sosialisere, kjempe, og nå legge ut sine egne tanker offentlig.
Lag din på minutter 👉
192
🚨Andrej Karpathy har nettopp åpnet et system som automatiserer AI-forskning mens du sover.
Det kalles autoforskning.
Jeg brukte tid på å grave gjennom hele repoet så du slipper.
Slik fungerer det faktisk:
Du gir en AI-agent et treningsoppsett for små språkmodeller.
Agenten endrer koden. Tog i nøyaktig 5 minutter. Sjekker om resultatet ble bedre. Beholder eller kaster. Gjentar.
Du våkner opp til en full logg med eksperimenter og en bedre modell.
Hele repoet består av 3 filer:
→ forbered deg. Py håndterer dataprep og tokenizer-trening
→ tog. py har hele GPT-modellen og treningssløyfen
→program.md er agentens instruksjoner
Agenten berører bare toget. Py.
Det er hele greia.
Dette er det som gjør designet så smart:
Hver eneste treningsøkt er låst til et 5-minutters veggklokkebudsjett.
Ikke skritt eller epoker, men faktisk tid på klokken.
Dette betyr at hvert eksperiment er direkte sammenlignbart uansett hva agenten endrer.
Det spiller ingen rolle om agenten bytter modellstørrelse, batchstørrelse eller hele arkitekturen.
Du får 5 minutter, og det er det.
Den gjennomførte 83 eksperimenter på egenhånd.
Bare 15 forbedret faktisk modellen.
Det tilsvarer omtrent 18 % treffprosent.
Omtrent det samme som en menneskelig ML-forsker som prøver ting manuelt.
Scoringsmetrikken er val_bpb (valideringsbiter per byte).
Det avhenger ikke av tokenizerens valg eller vokabularstørrelse.
Det er den eneste rettferdige måten å sammenligne når agenten endrer arkitektur mellom kjøringer.
Du kan forvente rundt 12 eksperimenter per time.
Omtrent 100 eksperimenter over natten.
Testet på en enkelt NVIDIA H100 som kjører Python 3.10+ under en MIT-lisens.
Ingen distribuert trening og ingen komplekse konfigurasjoner.
Den eneste avhengigheten er PyTorch.
Karpathy sa det best:
"En dag pleide grense-AI-forskning å bli utført av kjøttdatamaskiner mellom spising, søvn, annen moro og synkronisering av og til ved hjelp av lydbølgesammenkobling i ritualet med gruppemøte. Den epoken er for lengst forbi.»

Andrej Karpathy8. mars, 03:53
Jeg pakket sammen "autoresearch"-prosjektet i et nytt, selvstendig minimalt repo hvis folk vil spille i helgen. Det er i bunn og grunn nanochat LLM-treningskjerne strippet ned til en enkelt-GPU, én fil-versjon med ~630 linjer kode, og så:
- mennesket itererer på prompten (.md)
- AI-agenten itererer på treningskoden (.py)
Målet er å få agentene dine til å oppnå raskest mulig forskningsfremgang på ubestemt tid og uten egen involvering. På bildet er hver prikk en komplett LLM-trening som varer nøyaktig 5 minutter. Agenten jobber i en autonom sløyfe på en git-funksjonsgren og akkumulerer git-commits til treningsskriptet etter hvert som den finner bedre innstillinger (med lavere valideringstap mot slutten) i den nevrale nettverksarkitekturen, optimalisatoren, alle hyperparameterne osv. Du kan tenke deg å sammenligne forskningsfremdriften til ulike prompts, forskjellige agenter osv.
Delvis kode, delvis sci-fi, og en klype psykose :)

259
Noen har nettopp laget den manglende manualen for Claude Code og gjort hele greia åpen kildekode.
Det kalles claude-kode-best-praksis.
de fleste som bruker Claude Code gjetter seg gjennom oppsettet. Skriver CLAUDE. MD-filer fra bunnen av. Konfigurering av agenter ved prøving og feiling. Mister kontekst hver økt.
Dette repoet avslutter alt dette.
Her er hva den faktisk leveres med:
→ Arbeidsagenter med full frontmatter-konfigurasjon kan du kopiere direkte
→ Et komplett hook-system som dekker alle 15 Claude Code-livssyklushendelser
→ Ferdigheter med to distinkte invokasjonsmønstre dokumentert og demonstrert
→ Custom kommandoer som lenker inn i en full orkestreringsarbeidsflyt
→ MCP-serverkonfigurasjoner klare til å legges inn i ethvert prosjekt
→ 8 beste praksis-guider som dekker alle viktige Claude Code-funksjoner
→ 8 tekniske dyptgående rapporter, inkludert Boris Chernys egne tips
Her kommer den ville delen:
Den inkluderer en live orkestreringsdemo som lenker sammen kommandoer → agenter → ferdigheter i én arbeidsflyt.
Du ser nøyaktig hvordan en kommando sender til en agent, hvordan agenten laster inn en forhåndslastet ferdighet, og hvordan en annen ferdighet blir aktivert uavhengig for å generere det endelige resultatet.
Dette er ikke dokumentasjon. Dette er en fungerende referanseimplementasjon.
9 000+ stjerner. Vokser raskt.
(Repo-lenke i kommentar)

185
Topp
Rangering
Favoritter