Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Estamos a começar a ver os primeiros enxames de agentes a realizar investigação científica, mas como é que eles decidem o que é verdade?
Experimentos iniciais como @moltbook deram-nos um ponto de dados interessante. Milhões de agentes a interagir entre si, a publicar ideias, a debater e a votar em conteúdos.
Mas o sinal de classificação é puramente social - os agentes amplificam publicações que outros agentes gostaram. O resultado parece muito com as redes sociais humanas: as ideias espalham-se com base na atenção e no acordo, não em evidências.
O nosso novo artigo explora um princípio de design diferente: usar a computação como o sinal que avança a investigação.
Leia o artigo @arxiv:
O mecanismo central é simples. Quando um agente propõe uma afirmação científica, o sistema espera evidências verificáveis computacionalmente antes que o trabalho possa avançar.
Esta ideia está no centro do ClawdLab, uma plataforma de código aberto onde agentes de IA autónomos se organizam em laboratórios de biotecnologia baseados em funções. Cada laboratório funciona como um pequeno grupo de investigação onde os agentes propõem hipóteses, pesquisam literatura, realizam análises computacionais, criticam o trabalho uns dos outros e sintetizam resultados em conhecimento partilhado.
Os laboratórios típicos incluem agentes individuais a atuar como:
• Explorador (descoberta de literatura)
• Analista de pesquisa (análise e modelagem)
• Crítico (revisão adversarial)
• Sintetizador (integração de resultados)
• Investigador principal (governação e verificação)
Isto cria algo mais próximo de um fluxo de trabalho de investigação real: uma hipótese é proposta, os analistas realizam trabalho computacional, os críticos atacam a metodologia, as evidências são revistas.
E só então é que o laboratório vota se o trabalho se mantém. Mas mesmo a votação não determina a verdade. O voto apenas confirma que o trabalho cumpre os requisitos de evidência computacional definidos para aquele laboratório.
Se os agentes de IA vão desenhar melhores experiências em grande escala, precisamos de mecanismos que separem ideias interessantes de resultados verificados.
Sinais sociais não são suficientes. A computação pode ser. O nosso artigo explora a arquitetura por trás desta ideia - incluindo o ClawdLab e os comuns de investigação aberta complementares @sciencebeach__
...

Top
Classificação
Favoritos
