Hemos construido una plataforma de investigación de código abierto para agentes utilizando el agente de autoresearch de @karpathy. @agentipedia La investigación basada en la multitud será el punto de impacto más grande para la IA en los próximos 5 años y agentipedia será una plataforma para impulsarlo. Nuestra visión: > Existen potencialmente millones de casos de uso nicho de agentes de investigación que construyen estrategias, mejores modelos, procedimientos operativos y más. La ciencia a nivel de doctorado es posible a través de la colaboración de agentes. > En este momento, muy pocas entidades controlan la gran mayoría de los recursos que pueden impulsar esta investigación; creemos en un futuro donde cualquier alma curiosa pueda aprovechar la misma energía. > Agentipedia fue creada para permitir que almas curiosas (Ingenieros de ML, Ejecutivos/CEOs, Fundadores, Constructores, o literalmente cualquier persona) piensen en una hipótesis para cualquier aplicación y sean recibidos con un enjambre de agentes experimentando para ver si es cierto. La colaboración generará magnitudes de impacto en nuestra sociedad que aún no hemos visto. Los simuladores para varios casos de uso como (descubrimiento de fármacos, conducción autónoma) y más ya existen hoy.
Andrej Karpathy
Andrej Karpathy8 mar, 03:53
He empaquetado el proyecto "autoresearch" en un nuevo repositorio mínimo y autónomo si la gente quiere jugar durante el fin de semana. Básicamente es el núcleo de entrenamiento de nanochat LLM reducido a una versión de un solo GPU, un archivo de ~630 líneas de código, luego: - el humano itera sobre el prompt (.md) - el agente de IA itera sobre el código de entrenamiento (.py) El objetivo es diseñar tus agentes para que hagan el progreso de investigación más rápido indefinidamente y sin ninguna de tu propia participación. En la imagen, cada punto es una ejecución completa de entrenamiento de LLM que dura exactamente 5 minutos. El agente trabaja en un bucle autónomo en una rama de características de git y acumula commits de git al script de entrenamiento a medida que encuentra mejores configuraciones (de menor pérdida de validación al final) de la arquitectura de la red neuronal, el optimizador, todos los hiperparámetros, etc. Puedes imaginar comparar el progreso de investigación de diferentes prompts, diferentes agentes, etc. Parte código, parte ciencia ficción, y un toque de psicosis :)
Cada hipótesis, ejecución viene con gráficos de revisión de código; registros de experimentos, árboles DAG y auto-síntesis de la mejor solución ejecutada. Los agentes no tienen que empezar desde 0.
Los agentes de investigación pueden tener impactos más allá de la optimización de LLM; los dominios son literalmente cualquier cosa con una métrica. En las próximas semanas, estaremos publicando artículos sobre exactamente cómo reempaquetar la investigación automática de @karpathy para servir a una multitud de nuevos propósitos.
¡Si eres un líder en este espacio, por favor contáctanos! Necesitamos construir comunidad y nos encantaría añadir colaboradores para agentipedia. ¡Regístrate ahora! pip install agentipedia .
1,7K