🚨 EL SISTEMA DE CONDUCCIÓN AUTÓNOMA ALPAMAYO FUE PUESTO A PRUEBA HOY POR EL CEO DE NVIDIA, JENSEN HUANG 🔥 Aquí tienes un resumen de todo lo que necesitas saber sobre la prueba: Durante una prueba de conducción en el mundo real en San Francisco, el CEO de NVIDIA, Jensen Huang, y un colega ingeniero demostraron el sistema de conducción autónoma Alpamayo, destacando su arquitectura de "fusión" única. El sistema combina una red neuronal de extremo a extremo (E2E) con una pila clásica diseñada por humanos. Este enfoque híbrido está diseñado para proporcionar capacidades de conducción "sobrehumanas" mientras mantiene una barrera de seguridad basada en reglas y trazable que evita que el coche realice maniobras "fuera de distribución" o inseguras. El modelo E2E, que Huang señaló que conduce de una manera notablemente "humanoide" y elegante, es capaz de razonamiento complejo y de generalizar a partir de un enorme conjunto de datos de conducción humana. Durante la prueba, el vehículo navegó con éxito por intercambios de autopistas complicados, manejó oclusiones a altas velocidades y realizó maniobras de "empuje" alrededor de vehículos estacionados en doble fila y conos de construcción. Los desarrolladores enfatizaron que la velocidad de iteración del modelo E2E es increíblemente alta, generando aproximadamente siete nuevas versiones del modelo cada día. La seguridad y la validación fueron temas centrales de la prueba. El equipo utiliza un "árbol de escenarios funcionales" y herramientas de IA para curar datos para condiciones específicas de la carretera, junto con un sistema de evaluación de bucle cerrado (CLU) que realiza 2 millones de pruebas diarias en un mundo reconstruido pixel-perfecto. Esta rigurosa prueba ayudó al sistema a alcanzar la calificación más alta en los estándares NCAP 2025, que los ponentes señalaron que son cada vez más rigurosos. El hardware que soporta este software incluye una computadora personalizada, funcionalmente segura, alimentada por 10 cámaras, 5 radares y 12 sensores ultrasónicos. Mirando hacia el futuro, el equipo está integrando un "sistema de razonamiento" y "Cosmos" (un modelo generativo del mundo) para manejar raros casos extremos de "cola larga" cambiando factores ambientales como el clima y la iluminación en simulación. Huang concluyó que esta combinación de un modelo E2E humanoide y una pila de seguridad rígida hace que la tecnología esté lista para escalar de L2++ a robotaxis L4. Fuente del video: canal de YouTube de NVIDIA