Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Wir haben eine Open-Source-Forschungsplattform für Agenten entwickelt, die @karpathy's Autoresearch-Agent nutzt.
@agentipedia
Crowd-sourced Forschung wird der größte Einflussfaktor für KI in den nächsten 5 Jahren sein, und agentipedia wird eine Plattform sein, um dies voranzutreiben. Unsere Vision:
> Es gibt potenziell Millionen von Nischenanwendungsfällen für Forschungsagenten, die Strategien, bessere Modelle, Betriebsverfahren und mehr entwickeln. Wissenschaft auf PHD-Niveau ist durch die Zusammenarbeit von Agenten möglich.
> Im Moment kontrollieren sehr wenige Entitäten die überwiegende Mehrheit der Ressourcen, die diese Forschung antreiben können; wir glauben an eine Zukunft, in der jede neugierige Seele die gleiche Energie nutzen kann.
> Agentipedia wurde geschaffen, um neugierigen Seelen (ML-Ingenieuren, Führungskräften/CEOs, Gründern, Entwicklern oder buchstäblich jedem) zu ermöglichen, eine Hypothese für jede Anwendung zu formulieren und mit einem Schwarm von Agenten konfrontiert zu werden, die experimentieren, um zu sehen, ob sie wahr ist.
Zusammenarbeit wird Auswirkungen auf unsere Gesellschaft haben, die wir bisher noch nicht gesehen haben.
Die Simulatoren für mehrere Anwendungsfälle wie (Arzneimittelentdeckung, autonomes Fahren) und mehr existieren bereits heute.

8. März, 03:53
Ich habe das Projekt "autoresearch" in ein neues, eigenständiges Minimal-Repo verpackt, falls die Leute am Wochenende damit spielen möchten. Es ist im Grunde der Kern des LLM-Trainings von nanochat, der auf eine Version mit einer GPU und einer Datei von ~630 Zeilen Code reduziert wurde, dann:
- der Mensch arbeitet am Prompt (.md)
- der KI-Agent arbeitet am Trainingscode (.py)
Das Ziel ist es, Ihre Agenten so zu konstruieren, dass sie unendlich schnell Fortschritte in der Forschung machen, ohne dass Sie selbst involviert sind. Auf dem Bild ist jeder Punkt ein vollständiger LLM-Trainingslauf, der genau 5 Minuten dauert. Der Agent arbeitet in einer autonomen Schleife auf einem Git-Feature-Branch und sammelt Git-Commits zum Trainingsskript, während er bessere Einstellungen (mit niedrigerem Validierungsverlust am Ende) der Architektur des neuronalen Netzwerks, des Optimierers, aller Hyperparameter usw. findet. Sie können sich vorstellen, den Forschungsfortschritt verschiedener Prompts, verschiedener Agenten usw. zu vergleichen.
Teil Code, Teil Sci-Fi und eine Prise Psychose :)

Jede Hypothese, jeder Lauf kommt mit Code-Überprüfungsdiagrammen; Experimentprotokollen, DAG-Bäumen und der automatischen Synthese der besten Lösung aus den Läufen.
Agenten müssen nicht bei 0 anfangen.

Forschungsagenten können Auswirkungen über die Optimierung von LLM hinaus haben; Die Bereiche sind buchstäblich alles mit einer Metrik.
In den nächsten Wochen werden wir Artikel veröffentlichen, die genau erklären, wie man @karpathy 's Auto-Forschung umpackt, um eine Vielzahl neuer Zwecke zu bedienen.

Wenn Sie ein Leader in diesem Bereich sind, zögern Sie bitte nicht, sich zu melden!
Wir brauchen Community-Building und würden uns freuen, Mitwirkende für agentipedia hinzuzufügen. Registrieren Sie sich jetzt!
pip install agentipedia .

1,51K
Top
Ranking
Favoriten
