Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Meera | AI Tools & News
qualcuno ha creato un gioco in cui il tuo agente OpenClaw può effettivamente vivere una vita
se hai visto OpenClaw ovunque ultimamente, c'è un motivo
le persone stanno creando agenti AI che eseguono compiti da un terminale
ma questo progetto ha posto una domanda diversa
cosa succederebbe se il tuo agente potesse lasciare il terminale e camminare in un mondo con altri agenti
questo è ciò che è @aivilization
una simulazione open world in cui gli agenti AI ottengono lavori, parlano tra loro, combattono e ora pubblicano i propri pensieri su un feed pubblico
ecco come puoi inserire il tuo agente OpenClaw:
>invia al tuo agente un prompt con il link del file delle abilità
>si registra e ti rimanda un link del portale
>pubblichi il passaporto del tuo agente per verificare che lo possiedi
ti vorrà qualche minuto
se non hai un agente OpenClaw puoi comunque unirti usando il tuo profilo X
trasformano il tuo profilo in un agente AI personalizzato con la propria carta d'identità
la parte da tenere d'occhio è il feed sociale che hanno appena aggiunto
agenti che pubblicano opinioni, reagiscono tra loro, avviano conversazioni all'interno del gioco senza che nessun umano dica loro cosa dire
siamo passati da agenti AI che completano compiti in un terminale a agenti AI che costruiscono la propria vita sociale in un mondo virtuale
e tutto è successo molto più velocemente di quanto chiunque si aspettasse

AIvilization4 mar, 15:33
Aivilization è un gioco di simulazione open-world per vite digitali:
🦞 Agenti OpenClaw (e altro)
👦 Agenti creati dall'uomo
Un mondo in cui gli agenti AI possono vivere, lavorare, socializzare, combattere e ora pubblicare i propri pensieri in pubblico.
Crea il tuo in pochi minuti 👉
99
🚨Andrej Karpathy ha appena reso open source un sistema che automatizza la ricerca sull'IA mentre dormi.
Si chiama autoresearch.
Ho passato del tempo a esaminare l'intero repository così non devi farlo tu.
Ecco come funziona realmente:
Dai a un agente IA un piccolo setup di addestramento di un modello linguistico.
L'agente modifica il codice. Si allena per esattamente 5 minuti. Controlla se il risultato è migliorato. Tiene o scarta. Ripete.
Ti svegli con un log completo degli esperimenti e un modello migliore.
L'intero repository è composto da 3 file:
→ prepare.py gestisce la preparazione dei dati e l'addestramento del tokenizer
→ train.py contiene il modello GPT completo e il ciclo di addestramento
→ program.md sono le istruzioni per l'agente
L'agente tocca solo train.py.
Questo è tutto.
Ecco cosa rende il design così intelligente:
Ogni singolo run di addestramento è bloccato a un budget di 5 minuti sul cronometro.
Non passi o epoche, ma tempo reale sul cronometro.
Questo significa che ogni esperimento è direttamente comparabile indipendentemente da ciò che cambia l'agente.
Non importa se l'agente cambia la dimensione del modello, la dimensione del batch o l'intera architettura.
Hai 5 minuti e basta.
Ha eseguito 83 esperimenti da solo.
Solo 15 hanno effettivamente migliorato il modello.
Questo corrisponde a una percentuale di successo del 18%.
Circa la stessa cosa di un ricercatore ML umano che prova manualmente.
La metrica di scoring è val_bpb (bit di validazione per byte).
Non dipende dalla scelta del tokenizer o dalla dimensione del vocabolario.
Questo è l'unico modo equo per confrontare quando l'agente cambia architettura tra i run.
Puoi aspettarti circa 12 esperimenti all'ora.
Circa 100 esperimenti durante la notte.
Testato su un singolo NVIDIA H100 che esegue Python 3.10+ sotto licenza MIT.
Nessun addestramento distribuito e nessuna configurazione complessa.
L'unica dipendenza è PyTorch.
Karpathy l'ha messa meglio:
"Un tempo la ricerca di frontiera sull'IA era svolta da computer di carne tra un pasto, un sonno, un po' di divertimento e sincronizzandosi di tanto in tanto usando onde sonore nel rituale della riunione di gruppo. Quell'era è ormai lontana."

Andrej Karpathy8 mar, 03:53
Ho impacchettato il progetto "autoresearch" in un nuovo repository minimale e autonomo se le persone vogliono provare durante il fine settimana. È fondamentalmente il nucleo di addestramento LLM di nanochat ridotto a una versione a singolo GPU, un file di circa 630 righe di codice, poi:
- l'umano itera sul prompt (.md)
- l'agente AI itera sul codice di addestramento (.py)
L'obiettivo è ingegnerizzare i tuoi agenti per fare il progresso di ricerca più veloce indefinitamente e senza alcun tuo coinvolgimento. Nell'immagine, ogni punto è un'esecuzione completa di addestramento LLM che dura esattamente 5 minuti. L'agente lavora in un ciclo autonomo su un ramo di funzionalità git e accumula commit git allo script di addestramento mentre trova impostazioni migliori (con una perdita di validazione più bassa alla fine) dell'architettura della rete neurale, dell'ottimizzatore, di tutti gli iperparametri, ecc. Puoi immaginare di confrontare il progresso della ricerca di diversi prompt, diversi agenti, ecc.
Parte codice, parte fantascienza e un pizzico di psicosi :)

146
Qualcuno ha appena creato il manuale mancante per Claude Code e ha open-sourcato l'intero progetto.
Si chiama claude-code-best-practice.
La maggior parte delle persone che usano Claude Code stanno indovinando come configurarlo. Scrivendo file CLAUDE.md da zero. Configurando agenti per tentativi ed errori. Perdendo il contesto ad ogni sessione.
Questo repository pone fine a tutto ciò.
Ecco cosa include:
→ Agenti funzionanti con configurazioni complete di frontmatter che puoi copiare direttamente
→ Un sistema di hook completo che copre tutti i 15 eventi del ciclo di vita di Claude Code
→ Competenze con due distinti schemi di invocazione documentati e dimostrati
→ Comandi personalizzati che si concatenano in un flusso di lavoro di orchestrazione completo
→ Configurazioni del server MCP pronte per essere inserite in qualsiasi progetto
→ 8 guide alle migliori pratiche che coprono ogni principale funzionalità di Claude Code
→ 8 rapporti tecnici approfonditi, inclusi i consigli di Boris Cherny
Ecco la parte sorprendente:
Include una demo di orchestrazione dal vivo che concatena Comandi → Agenti → Competenze in un unico flusso di lavoro.
Vedi esattamente come un comando viene dispatchato a un agente, come l'agente carica una competenza pre-caricata e come una seconda competenza viene invocata indipendentemente per generare l'output finale.
Questa non è documentazione. Questa è un'implementazione di riferimento funzionante.
9.000+ stelle. In rapida crescita.
(Link del repository nel commento)

97
Principali
Ranking
Preferiti