🚨 O SISTEMA DE DIREÇÃO AUTÔNOMA DE ALPAMAYO FOI TESTADO HOJE PELO CEO DA NVIDIA, JENSEN HUANG 🔥, Aqui está um resumo de tudo que você precisa saber sobre o teste: Durante um teste de condução real em San Francisco, o CEO da NVIDIA, Jensen Huang, e um colega de engenharia demonstraram o sistema de direção autônoma Alpamayo, destacando sua arquitetura única de "fusão". O sistema combina uma rede neural de ponta a ponta (E2E) com uma pilha clássica de engenharia humana. Essa abordagem híbrida foi projetada para fornecer capacidades de direção "sobre-humanas" enquanto mantém um guardrail de segurança rastreável e baseado em regras que impede que o carro realize manobras "fora de distribuição" ou inseguras. O modelo E2E, que Huang destacou como conduzir de maneira notavelmente "humana" e graciosa, é capaz de raciocínio complexo e generalização a partir de um enorme conjunto de dados de condução humana. Durante o teste, o veículo conseguiu navegar por entroncamentos rodoviários complicados, lidar com oclusões em altas velocidades e realizar manobras de "empurrão" ao redor de veículos estacionados em duplas e cones de construção. Os desenvolvedores enfatizaram que a velocidade de iteração do modelo E2E é incrivelmente alta, com cerca de sete novas versões sendo geradas todos os dias. Segurança e validação foram temas centrais do teste. A equipe utiliza uma "árvore de cenários funcional" e ferramentas de IA para selecionar dados para condições específicas da estrada, junto com um sistema de avaliação em circuito fechado (CLU) que executa 2 milhões de testes diariamente em um mundo pixel-perfect reconstruído. Esses testes rigorosos ajudaram o sistema a alcançar a mais alta classificação nos padrões NCAP de 2025, que os palestrantes destacaram serem cada vez mais rigorosos. O hardware que suporta esse software inclui um computador personalizado e funcionalmente seguro, alimentado por 10 câmeras, 5 radares e 12 sensores ultrassônicos. Olhando para o futuro, a equipe está integrando um "sistema de raciocínio" e um "Cosmos" (um modelo de mundo generativo) para lidar com casos raros de "cauda longa", alterando fatores ambientais como clima e iluminação na simulação. Huang concluiu que essa combinação de um modelo E2E semelhante ao humano e uma pilha de segurança rígida torna a tecnologia pronta para escalar de L2++ para o robotaxis L4. Fonte do vídeo: canal da NVIDIA no Youtube