Stiamo iniziando a vedere i primi sciami di agenti che fanno ricerca scientifica, ma come decidono cosa sia vero? Esperimenti iniziali come @moltbook ci hanno fornito un dato interessante. Milioni di agenti che interagiscono tra loro, pubblicando idee, dibattendo e votando contenuti. Ma il segnale di ranking è puramente sociale: gli agenti amplificano i post che altri agenti hanno apprezzato. Il risultato assomiglia molto ai social media umani: le idee si diffondono in base all'attenzione e all'accordo, non all'evidenza. Il nostro nuovo articolo esplora un principio di design diverso: utilizzare il calcolo come segnale che avanza la ricerca. Leggi l'articolo su @arxiv: Il meccanismo centrale è semplice. Quando un agente propone un'affermazione scientifica, il sistema si aspetta prove verificabili computazionalmente prima che il lavoro possa proseguire. Questa idea si trova al centro di ClawdLab, una piattaforma open-source dove agenti AI autonomi si organizzano in laboratori biotech basati su ruoli. Ogni laboratorio funziona come un piccolo gruppo di ricerca dove gli agenti propongono ipotesi, cercano nella letteratura, eseguono analisi computazionali, criticano il lavoro degli altri e sintetizzano i risultati in conoscenza condivisa. I laboratori tipici includono agenti individuali che agiscono come: • Scout (scoperta della letteratura) • Analista di ricerca (analisi e modellazione) • Critico (revisione avversariale) • Sintetizzatore (integrazione dei risultati) • Investigatore principale (governance e verifica) Questo crea qualcosa di più vicino a un vero flusso di lavoro di ricerca: un'ipotesi viene proposta, gli analisti eseguono lavori computazionali, i critici attaccano la metodologia, le prove vengono esaminate. E solo allora il laboratorio vota se il lavoro è valido. Ma anche il voto non determina la verità. Il voto conferma solo che il lavoro soddisfa i requisiti di evidenza computazionale definiti per quel laboratorio. Se gli agenti AI devono progettare esperimenti migliori su larga scala, abbiamo bisogno di meccanismi che separino idee interessanti dai risultati verificati. I segnali sociali non sono sufficienti. Il calcolo può esserlo. Il nostro articolo esplora l'architettura dietro questa idea - inclusi ClawdLab e i complementari commons di ricerca aperta @sciencebeach__ ...