Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Lior Alexander
Construindo o Bloomberg da @AlphaSignalAI de IA (280 mil inscritos) • Professor do MIT • Pesquisador do MILA • 9 anos em ML
Todo modelo de fundação que você já usou tem o mesmo bug. Acabou de ser consertado.
Desde 2015, toda rede profunda foi construída da mesma forma: cada camada faz algum cálculo, soma seu resultado a um total contínuo e o encaminha.
Simples. Mas há um problema: na camada 100, o sinal de qualquer camada individual fica enterrado sob a soma de todo o resto.
Cada nova camada importa cada vez menos.
Ninguém consertou isso porque funcionava bem o suficiente.
A IA do Moonshot acabou de mudar isso. O novo método deles, Attention Residuals, permite que cada camada olhe para todas as camadas anteriores e escolha quais realmente importam no momento.
Em vez de um total cego, você obtém a recuperação seletiva.
A analogia: imagine escrever um ensaio onde cada rascunho é automaticamente fundido em um único documento. No rascunho 50, suas últimas edições estão invisíveis.
O AttnRes permite que você mantenha cada rascunho separado e escolha os que precisar.
O que isso resolve:
1. Camadas mais profundas não ficam mais abafadas
2. O treinamento torna-se mais estável em toda a rede
3. O modelo usa sua própria profundidade de forma mais eficiente
Para tornar prático em escala, eles agrupam camadas em blocos e atendem sobre resumos de blocos em vez de cada camada individualmente.
Sobrecarga na inferência: menos de 2%.
O resultado:
25% menos computação para alcançar o mesmo desempenho. Testado em um modelo de 48B parâmetros. Sustenta todos os tamanhos.
Conexões residuais são encanamento invisível há uma década. Agora eles estão se tornando dinâmicos.
A próxima geração de modelos não vai apenas passar por suas próprias camadas, elas vão procurá-las.

Kimi.ai16 de mar., 11:03
Apresentando Résidus de Atenção: Repensando a agregação em profundidade.
Conexões residuais há muito dependem de acúmulo fixo e uniforme. Inspirados pela dualidade de tempo e profundidade, introduzimos os Resíduos de Atenção, substituindo a recorrência padrão em profundidade por atenção aprendida e dependente de entrada sobre camadas anteriores.
🔹 Permite que redes recuperem seletivamente representações passadas, mitigando naturalmente a diluição e o crescimento do estado oculto.
🔹 Introduz o Block AttnRes, particionando camadas em blocos comprimidos para tornar a atenção entre camadas prática em larga escala.
🔹 Serve como uma substituição eficiente de entrada, demonstrando uma vantagem computacional de 1,25x com overhead de latência de inferência desprezível (<2%).
🔹 Validado na arquitetura Kimi Linear (48B no total, 3B parâmetros ativados), proporcionando ganhos consistentes de desempenho a jusante.
🔗Relatório completo:

365
Andrew Ng acabou de resolver um dos maiores problemas com Agents.
Ele lançou o Context Hub, uma ferramenta de CLI para buscar documentação de API ao vivo.
Um comando. O agente obtém exatamente o que precisa antes de escrever uma única linha de código.
Agentes treinados meses atrás estão voando às cegas. Eles inventam nomes de parâmetros. Eles chamam funções que não existem mais. Eles escrevem código com confiança contra uma especificação que mudou na última versão.
> Nada de parâmetros alucinados
> Docs retomavam antes de cada ligação
> Agentes registram descobertas úteis
> As notas persistem entre as sessões
O agente executa um comando CLI antes de tocar no código. Em vez de depender de dados obsoletos, ele lê a especificação real.
APIs rápidas costumavam significar manter um despejo de documentos em cada prompt. Agora o agente faz esse trabalho sozinho.
Quando encontra uma solução alternativa, ele salva uma nota para a próxima vez.

1,54K
Melhores
Classificação
Favoritos
