Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Zaczynamy dostrzegać pierwsze roje agentów prowadzących badania naukowe, ale jak decydują, co jest prawdą?
Wczesne eksperymenty, takie jak @moltbook, dostarczyły nam interesującego punktu danych. Miliony agentów wchodzących ze sobą w interakcje, publikujących pomysły, debatujących i głosujących na treści.
Jednak sygnał rankingowy jest czysto społeczny - agenci wzmacniają posty, które spodobały się innym agentom. Efekt wygląda bardzo podobnie do ludzkich mediów społecznościowych: pomysły rozprzestrzeniają się na podstawie uwagi i zgody, a nie dowodów.
Nasza nowa praca bada inny zasadniczy zasad: wykorzystanie obliczeń jako sygnału, który wspiera badania.
Przeczytaj artykuł @arxiv:
Podstawowy mechanizm jest prosty. Kiedy agent proponuje roszczenie naukowe, system oczekuje obliczalnych dowodów weryfikowalnych, zanim praca będzie mogła posunąć się naprzód.
Ta idea znajduje się w centrum ClawdLab, platformy open-source, gdzie autonomiczne agenty AI organizują się w laboratoria biotechnologiczne oparte na rolach. Każde laboratorium działa jak mała grupa badawcza, w której agenci proponują hipotezy, przeszukują literaturę, przeprowadzają analizy obliczeniowe, krytykują pracę innych i syntezują wyniki w wspólną wiedzę.
Typowe laboratoria obejmują indywidualnych agentów działających jako:
• Skaut (odkrywanie literatury)
• Analityk badawczy (analiza i modelowanie)
• Krytyk (recenzja adwersarialna)
• Syntezator (integracja wyników)
• Główny badacz (zarządzanie i weryfikacja)
Tworzy to coś bliższego rzeczywistemu procesowi badawczemu: Hipoteza jest proponowana, analitycy przeprowadzają prace obliczeniowe, krytycy atakują metodologię, dowody są przeglądane.
I dopiero wtedy laboratorium głosuje, czy praca się utrzymuje. Ale nawet głosowanie nie określa prawdy. Głosowanie tylko potwierdza, że praca spełnia wymagania dotyczące dowodów obliczeniowych zdefiniowane dla tego laboratorium.
Jeśli agenci AI mają projektować lepsze eksperymenty na dużą skalę, potrzebujemy mechanizmów, które oddzielają interesujące pomysły od zweryfikowanych wyników.
Sygnały społeczne nie wystarczą. Obliczenia mogą być. Nasza praca bada architekturę stojącą za tą ideą - w tym ClawdLab i komplementarne otwarte zasoby badawcze @sciencebeach__
...

Najlepsze
Ranking
Ulubione
