Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Chamath Palihapitiya
Deus está nos detalhes.
21 mil curtidas provavelmente significam que toda essa conversa sobre receita de modelos é 100% real e que pouco dinheiro dos clientes é desperdiçado em tokens inúteis.
Ou...

Om Patel9 horas atrás
pare de gastar dinheiro com Claude Code.
O bot de suporte da Chipotle é gratuito:

25
A próxima fase do silício de IA é toda sobre decodificação barata e abundante.
Groq era só o aperitivo... Este artigo é um guia muito bom.

Chris Laub23 horas atrás
🚨 ÚLTIMA HORA: Um pesquisador do Google e vencedor do Prêmio Turing acaba de publicar um artigo que expõe a verdadeira crise da IA.
Não é treinamento. É inferência. E o hardware que estamos usando nunca foi projetado para isso.
O artigo é de Xiaoyu Ma e David Patterson. Aceito pela IEEE Computer, 2026.
Sem alarde. Sem lançamento de produto. Apenas uma explicação fria do porquê atender LLMs é fundamentalmente quebrado no nível do hardware.
O argumento central é brutal:
→ o FLOPS da GPU cresceu 80 vezes de 2012 a 2022
→ A largura de banda da memória cresceu apenas 17 vezes nesse mesmo período
→ custos de HBM por GB estão subindo, não diminuindo
→ A fase de Decodificação é limitada à memória, não à computação
→ Estamos construindo inferência em chips projetados para treinamento
Aqui está a parte mais louca:
A OpenAI perdeu cerca de US$ 5 bilhões em US$ 3,7 bilhões de receita. O gargalo não é a qualidade do modelo. É o custo de servir cada token para cada usuário. A inferência está esgotando essas empresas.
E cinco tendências estão piorando tudo simultaneamente:
→ modelos MoE como o DeepSeek-V3 com 256 especialistas explodindo memória
→ Modelos de raciocínio gerando cadeias massivas de pensamentos antes de responder
→ Entradas multimodais (imagem, áudio, vídeo) ofuscando o texto
→ Janelas de longo contexto que sobrecarregam caches KV
→ pipelines RAG injetando mais contexto por requisição
As quatro mudanças de hardware propostas por eles:
→ Flash de alta largura de banda: pilhas de 512GB em largura de banda HBM, 10 vezes mais memória por nó
→ Processamento Próximo à Memória: dados lógicos colocados ao lado da memória, não no mesmo chip
→ Empilhamento 3D de Memória-Lógica: conexões verticais que entregam 2-3 vezes menos de potência que o HBM
→ Interconexão de Baixa Latência: menos saltos, computação na rede, buffers de pacotes SRAM
Empresas que tentaram chips só SRAM, como Cerebras e Groq, já falharam e tiveram que reinstalar DRAM.
Este jornal não vende um produto. Ela mapeia todo o gargalo do hardware e diz: a indústria está resolvendo o problema errado.
O Paper foi lançado em janeiro de 2026. Link no primeiro comentário 👇


67
Acho que há algo importante acontecendo aqui que vale a pena descobrir:
1) a maioria dos modelos se adapta demais às avaliações. Dito isso, precisamos de algumas avaliações para avisar um modelo se eles são bons detectores de besteira antes de gastarmos muito dinheiro devolvendo besteiras
2) Precisa haver uma consciência da bajulação e, em geral, ser agradável nem sempre é o melhor
3) Acho que usar uma mistura de LLMs e humanos para julgar seria valioso

Peter Gostev16 horas atrás
Atualização BullshitBench v2: Grok 4.2 - salto enorme no ranking - 4.1 foi classificado em 54º e 72º (de 84) e agora ficou do 13º ao 16º lugar.

35
Melhores
Classificação
Favoritos
