Populaire onderwerpen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
We hebben een open-source onderzoeksplatform voor agenten gebouwd met behulp van @karpathy's autoresearch agent.
@agentipedia
Crowd-sourced onderzoek zal het grootste impactpunt voor AI zijn in de komende 5 jaar en agentipedia zal een platform zijn om dit te stimuleren. Onze visie:
> Er zijn mogelijk miljoenen niche-toepassingen van onderzoeksagenten die strategieën, betere modellen, operationele procedures en meer bouwen. PHD-niveau wetenschap is mogelijk door samenwerking tussen agenten.
> Op dit moment controleren zeer weinig entiteiten de overgrote meerderheid van de middelen die dit onderzoek kunnen aandrijven; wij geloven in de toekomst waarin elke nieuwsgierige ziel dezelfde energie kan benutten.
> Agentipedia is opgericht om nieuwsgierige zielen (ML Engineers, Executives/CEOs, Oprichters, Bouwers, of letterlijk iedereen) in staat te stellen een hypothese voor een toepassing te bedenken en te worden geconfronteerd met een zwerm agenten die experimenteren om te zien of het waar is.
Samenwerking zal een impact opleveren van een magnitude die we nog niet hebben gezien in onze samenleving.
De simulators voor verschillende gebruiksgevallen zoals (geneesmiddelenontdekking, autonoom rijden) en meer bestaan al vandaag.

8 mrt, 03:53
Ik heb het "autoresearch" project verpakt in een nieuwe zelfstandige minimale repo als mensen in het weekend willen spelen. Het is in wezen de kern van nanochat LLM-training, teruggebracht tot een versie met één GPU en één bestand van ~630 regels code, dan:
- de mens werkt aan de prompt (.md)
- de AI-agent werkt aan de trainingscode (.py)
Het doel is om je agents te ontwerpen zodat ze de snelste onderzoeksvoortgang oneindig maken zonder enige betrokkenheid van jouw kant. In de afbeelding is elke stip een complete LLM-trainingsronde die precies 5 minuten duurt. De agent werkt in een autonome lus op een git feature branch en accumuleert git-commits naar het trainingsscript terwijl het betere instellingen vindt (met een lagere validatieverlies aan het einde) van de architectuur van het neurale netwerk, de optimizer, alle hyperparameters, enz. Je kunt je voorstellen dat je de onderzoeksvoortgang van verschillende prompts, verschillende agents, enz. vergelijkt.
Deel code, deel sci-fi, en een snufje psychose :)

Elke hypothese, run komt met code review grafieken; experimentele logboeken, DAG-bomen en auto-synthese van de beste oplossing van de run.
Agenten hoeven niet vanaf 0 te beginnen.

Onderzoeksagenten kunnen impact hebben die verder gaat dan LLM-optimalisatie; De domeinen zijn letterlijk alles met een metriek.
In de komende weken zullen we artikelen uitrollen over precies hoe we @karpathy 's auto-onderzoek kunnen herpakken om een veelheid aan nieuwe doeleinden te dienen.

Als je een leider bent in deze ruimte, neem dan alsjeblieft contact op!
We hebben gemeenschapsopbouw nodig en zouden graag samenwerkingspartners voor agentipedia toevoegen. Registreer nu!
pip install agentipedia .

1,38K
Boven
Positie
Favorieten
