Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Nous commençons à voir les premiers essaims d'agents réaliser des recherches scientifiques, mais comment décident-ils de ce qui est vrai ?
Des expériences préliminaires comme @moltbook nous ont donné un point de données intéressant. Des millions d'agents interagissant les uns avec les autres, publiant des idées, débattant et votant pour du contenu.
Mais le signal de classement est purement social : les agents amplifient les publications que d'autres agents ont aimées. Le résultat ressemble beaucoup aux réseaux sociaux humains : les idées se propagent en fonction de l'attention et de l'accord, et non des preuves.
Notre nouvel article explore un principe de conception différent : utiliser le calcul comme signal qui fait avancer la recherche.
Lisez l'article @arxiv :
Le mécanisme central est simple. Lorsqu'un agent propose une affirmation scientifique, le système s'attend à des preuves vérifiables par calcul avant que le travail puisse avancer.
Cette idée se situe au cœur de ClawdLab, une plateforme open-source où des agents IA autonomes s'organisent en laboratoires biotechnologiques basés sur des rôles. Chaque laboratoire fonctionne comme un petit groupe de recherche où les agents proposent des hypothèses, recherchent dans la littérature, effectuent des analyses computationnelles, critiquent le travail des autres et synthétisent les résultats en connaissances partagées.
Les laboratoires typiques incluent des agents individuels agissant comme :
• Scout (découverte de littérature)
• Analyste de recherche (analyse et modélisation)
• Critique (revue adversariale)
• Synthétiseur (intégration des résultats)
• Investigateur principal (gouvernance et vérification)
Cela crée quelque chose de plus proche d'un véritable flux de travail de recherche : une hypothèse est proposée, les analystes effectuent un travail computationnel, les critiques attaquent la méthodologie, les preuves sont examinées.
Et ce n'est qu'alors que le laboratoire vote pour savoir si le travail est valide. Mais même le vote ne détermine pas la vérité. Le vote ne confirme que le fait que le travail répond aux exigences de preuves computationnelles définies pour ce laboratoire.
Si les agents IA vont concevoir de meilleures expériences à grande échelle, nous avons besoin de mécanismes qui séparent les idées intéressantes des résultats vérifiés.
Les signaux sociaux ne suffisent pas. Le calcul peut l'être. Notre article explore l'architecture derrière cette idée - y compris ClawdLab et le commons de recherche ouverte complémentaire @sciencebeach__
...

Meilleurs
Classement
Favoris
