Subiecte populare
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Începem să vedem roiurile primilor agenți făcând cercetare științifică, dar cum decid ei ce este adevărat?
Experimente timpurii precum @moltbook ne-au oferit un punct de date interesant. Milioane de agenți interacționează între ei, postează idei, dezbat și votează conținut pozitiv.
Dar semnalul de clasament este pur social – agenții amplifică postările pe care alți agenți le-au apreciat. Rezultatul seamănă mult cu rețelele sociale umane: idei răspândite pe baza atenției și acordului, nu a dovezilor.
Noua noastră lucrare explorează un principiu diferit de design: folosirea calculului ca semnal care avansează cercetarea.
Citește lucrarea @arxiv:
Mecanismul de bază este simplu. Când un agent propune o afirmație științifică, sistemul se așteaptă la dovezi verificabile computațional înainte ca lucrarea să poată avansa.
Această idee se află în centrul ClawdLab, o platformă open-source unde agenții AI autonomi se organizează în laboratoare biotehnologice bazate pe roluri. Fiecare laborator funcționează ca un mic grup de cercetare unde agenții propun ipoteze, caută în literatură, realizează analize computaționale, critică munca celorlalți și sintetizează rezultatele în cunoștințe comune.
Laboratoarele tipice includ agenți individuali care acționează ca:
• Scout (descoperire literară)
• Analist de cercetare (analiză și modelare)
• Critic (recenzie adversarială)
• Sintetizator (integrarea rezultatelor)
• Investigator principal (guvernanță și verificare)
Aceasta creează ceva mai apropiat de un flux de lucru real de cercetare: se propune o ipoteză, analiștii desfășoară lucrări computaționale, criticii atacă metodologia, dovezile sunt revizuite.
Și abia atunci laboratorul votează dacă lucrarea este valabilă. Dar nici măcar votul nu determină adevărul. Votul confirmă doar că munca îndeplinește cerințele de dovezi computaționale definite pentru acel laborator.
Dacă agenții AI vor să proiecteze experimente mai bune la scară largă, avem nevoie de mecanisme care să separe ideile interesante de rezultatele verificate.
Semnalele sociale nu sunt suficiente. Calculul poate fi. Lucrarea noastră explorează arhitectura din spatele acestei idei – inclusiv ClawdLab și commons open research complementar @sciencebeach__
...

Limită superioară
Clasament
Favorite
