Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Josh Kale
Apresentador e Produção @LimitlessFT & @Bankless josh.eth 👨🏽 💻
O cara que inventou a arquitetura de chip dentro de 99% de todos os processadores diz que as GPUs da NVIDIA são totalmente erradas para essa era da IA...
Seu argumento: GPUs foram projetadas para treinamento. Mas a inferência, onde todo o dinheiro é feito, é um problema fundamentalmente diferente
É limitado à memória e sequencial. E nenhum chip jamais foi projetado especificamente para isso. Toda GPU e TPU usada hoje em dia para inferência é apenas um chip de treinamento reduzido.
O verdadeiro gargalo é a memória. E toda tendência que a indústria mais empolga (MoE, raciocínio, longo contexto, multimodal) piora o problema da memória.
O próximo ciclo de hardware de $100B+ será ganho por quem resolver o wall de memória primeiro



Chris Laub12 de mar., 18:07
🚨 ÚLTIMA HORA: Um pesquisador do Google e vencedor do Prêmio Turing acaba de publicar um artigo que expõe a verdadeira crise da IA.
Não é treinamento. É inferência. E o hardware que estamos usando nunca foi projetado para isso.
O artigo é de Xiaoyu Ma e David Patterson. Aceito pela IEEE Computer, 2026.
Sem alarde. Sem lançamento de produto. Apenas uma explicação fria do porquê atender LLMs é fundamentalmente quebrado no nível do hardware.
O argumento central é brutal:
→ o FLOPS da GPU cresceu 80 vezes de 2012 a 2022
→ A largura de banda da memória cresceu apenas 17 vezes nesse mesmo período
→ custos de HBM por GB estão subindo, não diminuindo
→ A fase de Decodificação é limitada à memória, não à computação
→ Estamos construindo inferência em chips projetados para treinamento
Aqui está a parte mais louca:
A OpenAI perdeu cerca de US$ 5 bilhões em US$ 3,7 bilhões de receita. O gargalo não é a qualidade do modelo. É o custo de servir cada token para cada usuário. A inferência está esgotando essas empresas.
E cinco tendências estão piorando tudo simultaneamente:
→ modelos MoE como o DeepSeek-V3 com 256 especialistas explodindo memória
→ Modelos de raciocínio gerando cadeias massivas de pensamentos antes de responder
→ Entradas multimodais (imagem, áudio, vídeo) ofuscando o texto
→ Janelas de longo contexto que sobrecarregam caches KV
→ pipelines RAG injetando mais contexto por requisição
As quatro mudanças de hardware propostas por eles:
→ Flash de alta largura de banda: pilhas de 512GB em largura de banda HBM, 10 vezes mais memória por nó
→ Processamento Próximo à Memória: dados lógicos colocados ao lado da memória, não no mesmo chip
→ Empilhamento 3D de Memória-Lógica: conexões verticais que entregam 2-3 vezes menos de potência que o HBM
→ Interconexão de Baixa Latência: menos saltos, computação na rede, buffers de pacotes SRAM
Empresas que tentaram chips só SRAM, como Cerebras e Groq, já falharam e tiveram que reinstalar DRAM.
Este jornal não vende um produto. Ela mapeia todo o gargalo do hardware e diz: a indústria está resolvendo o problema errado.
O Paper foi lançado em janeiro de 2026. Link no primeiro comentário 👇


1
Uau, isso é bem grande. Elon acabou de apresentar a colaboração xAI <> Tesla.
É Digital Optimus: Totalmente Autônomo, mas para a tela do seu computador
Em vez de processar capturas de tela estáticas como qualquer outro agente de IA (Claude, ChatGPT, etc.), ele assiste a um fluxo contínuo de vídeo de 5 segundos da sua tela em tempo real
Essa é exatamente a mesma mudança de paradigma que o FSD v12 fez ao substituir 300.000 linhas de código C++ por redes neurais de ponta a ponta processando vídeo bruto.
Toda outra IA que usa computador tira uma captura de tela → acha que → age → tira outra captura.
Basicamente, um flipbook.
O Digital Optimus assiste a vídeo contínuo em tempo real sem intervalos.
É como a diferença entre o MapQuest imprimir direções e o Waze redirecionar você vive.
A parte mais louca: ele roda com um chip Tesla AI4 de $650.
Os agentes de computador da Anthropic e da OpenAI rodam em GPUs em nuvem que custam ordens de magnitude a mais por sessão. Inferência de GPU por $650 vs $30.000+ de GPU é algo bem importante



Elon Musk11 de mar., 23:17
Macrohard ou Digital Optimus é um projeto conjunto xAI-Tesla, que faz parte do acordo de investimento da Tesla com a xAI.
Grok é o maestro condutor/navegador com profundo entendimento do mundo para dirigir o Optimus digital, que processa e aciona os últimos 5 segundos de vídeo em tempo real na tela do computador e ações de teclado/mouse. O Grok é como uma versão muito mais avançada e sofisticada do software de navegação passo a passo.
Você pode pensar nisso como a IA Digital Optimus sendo o Sistema 1 (parte instintiva da mente) e o Grok sendo o Sistema 2. (parte pensante da mente).
Ele vai funcionar de forma muito competitiva no Tesla AI4 de custo super baixo (US$ 650), combinado com o uso relativamente econômico do hardware xAI Nvidia, muito mais caro. E será o único sistema inteligente de IA em tempo real. Isso é algo sério.
Em princípio, é capaz de emular a função de empresas inteiras. Por isso o programa se chama MACROHARD, uma referência engraçada à Microsoft.
Nenhuma outra empresa ainda consegue fazer isso.
93
Melhores
Classificação
Favoritos
