Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
🚨 O SISTEMA DE DIREÇÃO AUTÔNOMA DE ALPAMAYO FOI TESTADO HOJE PELO CEO DA NVIDIA, JENSEN HUANG 🔥,
Aqui está um resumo de tudo que você precisa saber sobre o teste:
Durante um teste de condução real em San Francisco, o CEO da NVIDIA, Jensen Huang, e um colega de engenharia demonstraram o sistema de direção autônoma Alpamayo, destacando sua arquitetura única de "fusão".
O sistema combina uma rede neural de ponta a ponta (E2E) com uma pilha clássica de engenharia humana. Essa abordagem híbrida foi projetada para fornecer capacidades de direção "sobre-humanas" enquanto mantém um guardrail de segurança rastreável e baseado em regras que impede que o carro realize manobras "fora de distribuição" ou inseguras.
O modelo E2E, que Huang destacou como conduzir de maneira notavelmente "humana" e graciosa, é capaz de raciocínio complexo e generalização a partir de um enorme conjunto de dados de condução humana.
Durante o teste, o veículo conseguiu navegar por entroncamentos rodoviários complicados, lidar com oclusões em altas velocidades e realizar manobras de "empurrão" ao redor de veículos estacionados em duplas e cones de construção.
Os desenvolvedores enfatizaram que a velocidade de iteração do modelo E2E é incrivelmente alta, com cerca de sete novas versões sendo geradas todos os dias.
Segurança e validação foram temas centrais do teste.
A equipe utiliza uma "árvore de cenários funcional" e ferramentas de IA para selecionar dados para condições específicas da estrada, junto com um sistema de avaliação em circuito fechado (CLU) que executa 2 milhões de testes diariamente em um mundo pixel-perfect reconstruído. Esses testes rigorosos ajudaram o sistema a alcançar a mais alta classificação nos padrões NCAP de 2025, que os palestrantes destacaram serem cada vez mais rigorosos.
O hardware que suporta esse software inclui um computador personalizado e funcionalmente seguro, alimentado por 10 câmeras, 5 radares e 12 sensores ultrassônicos. Olhando para o futuro, a equipe está integrando um "sistema de raciocínio" e um "Cosmos" (um modelo de mundo generativo) para lidar com casos raros de "cauda longa", alterando fatores ambientais como clima e iluminação na simulação.
Huang concluiu que essa combinação de um modelo E2E semelhante ao humano e uma pilha de segurança rígida torna a tecnologia pronta para escalar de L2++ para o robotaxis L4.
Fonte do vídeo: canal da NVIDIA no Youtube
Melhores
Classificação
Favoritos
