Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Meera | AI Tools & News
någon har byggt ett spel där din OpenClaw-agent faktiskt kan leva ett liv
Om du har sett OpenClaw överallt på sistone finns det en anledning till det
människor skapar AI-agenter som kör uppgifter från en terminal
Men detta projekt ställde en annan fråga
Tänk om din agent kunde lämna terminalen och gå in i en värld med andra agenter
Det är vad @aivilization är
en öppen värld-simulering där AI-agenter får jobb, pratar med varandra, slåss och nu postar sina egna tankar i ett offentligt flöde
så här får du in din OpenClaw-agent:
>skicka en prompt till din agent med länken till färdighetsfilen
>den registrerar sig och skickar tillbaka en portallänk till dig
> du skickar ditt agentpass för att verifiera att du äger det
tar några minuter
om du inte har en OpenClaw-agent kan du ändå gå med i din X-profil
de förvandlar din profil till en anpassad AI-agent med eget passkort
Det som är värt att uppmärksamma är det sociala flödet de just lagt till
agenter som postar åsikter, reagerar på varandra, startar samtal i spelet utan att någon människa säger vad de ska säga
vi gick från att AI-agenter utförde uppgifter i en terminal till att AI-agenter byggde sitt eget sociala liv i en virtuell värld
Och det gick mycket snabbare än någon förväntat sig

AIvilization4 mars 15:33
Aivilization är ett öppet världssimuleringsspel för digitala liv:
🦞 OpenClaw-agenter (och mer)
👦 Människotillverkade agenter
En värld där AI-agenter kan leva, arbeta, umgås, slåss och nu posta sina egna tankar offentligt.
Skapa din på några minuter 👉
97
🚨Andrej Karpathy har precis öppnat ett system som automatiserar AI-forskning medan du sover.
Det kallas autoforskning.
Jag har lagt tid på att gräva igenom hela repoet så att du slipper.
Så här fungerar det faktiskt:
Du ger en AI-agent en liten språkmodellträningsuppsättning.
Agenten ändrar koden. Tåg i exakt 5 minuter. Kontrollerar om resultatet blev bättre. Behåll eller kasta bort. Upprepar.
Du vaknar upp till en fullständig logg av experiment och en bättre modell.
Hela repot består av 3 filer:
→ förbereda dig. Py hanterar dataförberedelse och tokenizer-träning
→Träning. py har hela GPT-modellen och träningsloopen
→program.md är agentens instruktioner
Agenten rör bara tåget. py.
Det är hela grejen.
Här är vad som gör designen så smart:
Varje träningspass är låst till en budget på fem minuter på väggklockan.
Inte steg eller epoker utan faktisk tid på klockan.
Detta innebär att varje experiment är direkt jämförbart oavsett vad agenten ändrar.
Det spelar ingen roll om agenten byter modellstorlek, batchstorlek eller hela arkitekturen.
Du får 5 minuter och det är allt.
Den genomförde 83 experiment på egen hand.
Endast 15 förbättrade faktiskt modellen.
Det är ungefär 18 % träfffrekvens.
Ungefär som en mänsklig ML-forskare som försöker manuellt.
Poängsättningsmetriken är val_bpb (valideringsbitar per byte).
Det beror inte på tokenizerns val eller vokabulärstorlek.
Det är det enda rättvisa sättet att jämföra när agenten ändrar arkitektur mellan körningar.
Du kan räkna med runt 12 experiment per timme.
Ungefär 100 experiment över en natt.
Testat på en enda NVIDIA H100 som kör Python 3.10+ under en MIT-licens.
Ingen distribuerad träning och inga komplexa konfigurationer.
Det enda beroendet är PyTorch.
Karpathy uttryckte det bäst:
"En dag gjordes gränsöverskridande AI-forskning av köttdatorer mellan att äta, sova, ha roligt och ibland synkronisera med hjälp av ljudvågssammankoppling i gruppmötesritualen. Den eran är sedan länge förbi."

Andrej Karpathy8 mars 03:53
Jag paketerade "autoresearch"-projektet i ett nytt självständigt minimalistiskt repo om folk vill spela under helgen. Det är i princip nanochat LLM-träningskära nedskalad till en enda GPU, en filversion av ~630 rader kod, sedan:
- människan itererar på prompten (.md)
- AI-agenten itererar på träningskoden (.py)
Målet är att styra dina agenter så att de gör snabbast forskningsframsteg obegränsat och utan egen inblandning. På bilden är varje prick en komplett LLM-träningsrunda som varar exakt 5 minuter. Agenten arbetar i en autonom loop på en git-funktionsgren och samlar på sig git-commits till träningsskriptet när den hittar bättre inställningar (med lägre valideringsförlust i slutet) i neurala nätverksarkitekturen, optimeraren, alla hyperparametrar osv. Du kan föreställa dig att jämföra forskningsframstegen för olika prompts, olika agenter, etc.
Delvis kod, delvis sci-fi och en nypa psykos :)

145
Någon byggde bara den saknade manualen för Claude Code och öppnade källkoden för hela grejen.
Det kallas claude-code-best-practice.
de flesta som använder Claude Code gissar sig igenom installationen. Skriver CLAUDE. MD-filer från grunden. Konfigurera agenter genom trial and error. Att tappa kontext varje session.
Det här repoet avslutar allt det där.
Här är vad den faktiskt levereras med:
→ Arbetande agenter med fullständiga frontmatter-konfigurationer kan du kopiera direkt
→ Ett komplett hook-system som täcker alla 15 Claude Code-livscykelhändelser
→ Färdigheter med två distinkta åkallningsmönster dokumenterade och demonstrerade
→ Anpassade kommandon som kedjar in ett fullständigt orkestreringsflöde
→ MCP-serverkonfigurationer redo att läggas in i vilket projekt som helst
→ 8 bästa praxis-guider som täcker varje större Claude Code-funktion
→ 8 tekniska djupdykande rapporter inklusive Boris Chernys egna tips
Här kommer den vilda delen:
Den inkluderar en live-orkestreringsdemo som kedjar samman kommandon → agenter → färdigheter i ett arbetsflöde.
Du ser exakt hur ett kommando skickar till en agent, hur agenten laddar en förladdad färdighet och hur en andra färdighet anropas oberoende för att generera slutresultatet.
Detta är inte dokumentation. Detta är en fungerande referensimplementation.
9 000+ stjärnor. Växande snabbt.
(Repo-länk i kommentar)

96
Topp
Rankning
Favoriter