Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Ihtesham
Investidor, escritor, educador e fã 🐉 de Dragon Ball
A Chain of Thought está morta.
Acabei de testar o Skeleton of Thought e está a reduzir a latência de resposta pela metade em tarefas estruturadas com saídas mais nítidas.
A percepção destruiu o meu modelo mental de como a IA deve gerar texto.
O CoT força o modelo a pensar e escrever ao mesmo tempo. O Ponto 1 deve terminar antes que o Ponto 2 possa começar. O Ponto 2 deve terminar antes que o Ponto 3. Cada token é bloqueado pelo token anterior.
Não é assim que os especialistas realmente estruturam a informação.
Um consultor da McKinsey não escreve um relatório de forma linear. Eles esboçam cada seção primeiro, depois desenvolvem cada uma de forma independente. Um professor não elabora notas de aula do início ao fim. Eles esboçam os tópicos e depois os preenchem.
O SoT finalmente corresponde a isso.
Fase 1 - Esqueleto:
O modelo escreve um esboço básico de cada ponto primeiro. Sem elaboração. Apenas estrutura. Rápido.
Fase 2 - Preenchimento Paralelo:
Cada ponto do esqueleto é expandido de forma independente e simultânea. O Ponto 3 não espera pelo Ponto 2. O Ponto 5 não espera pelo Ponto 4.
Um ramo errado não atrasa todos os ramos seguintes.
A estrutura exata do prompt:
"Primeiro, escreva um esqueleto conciso da sua resposta como uma lista de pontos-chave. Depois, expanda cada ponto de forma independente e completa. Formato: [Esqueleto] seguido de [Ponto 1], [Ponto 2], etc."
É isso. Essa é a chave para desbloquear.
Onde o SoT domina:
→ Guias e tutoriais
→ Listas e análises classificadas
→ Comparações técnicas
→ Instruções passo a passo
→ Qualquer resposta onde a resposta tenha uma estrutura paralela natural
Onde o CoT ainda vence:
→ Provas matemáticas onde o Passo 3 depende do Passo 2
→ Cadeias de depuração onde cada descoberta estreita a próxima
→ Qualquer coisa onde a dependência sequencial é real, não assumida
Os números do artigo de Stanford que publicou isso:
2,39x de aumento médio de velocidade em modelos testados. No GPT-4, a qualidade manteve-se ou melhorou em tarefas estruturadas. A fase do esqueleto adiciona quase zero latência porque é curta. Todos os ganhos vêm da paralelização da fase de preenchimento.
Tenho usado isso em entregas para clientes há 2 semanas. A diferença em saídas estruturadas não é sutil.
O CoT fez a IA pensar antes de escrever.
O Skeleton of Thought faz com que ela arquitete antes de construir.

🚨 RIP Chrome para agentes de IA.
Alguém construiu um navegador headless do zero que roda 11x mais rápido e usa 9x menos memória.
Chama-se Lightpanda.
Todo agente de IA que faz automação na web agora está rodando Chrome por trás. Isso significa que você está iniciando um enorme aplicativo de desktop, removendo a interface do usuário e rodando centenas de instâncias dele em um servidor. Para algo que nunca precisa renderizar um único pixel.
É como alugar um caminhão semi-reboque para entregar uma carta.
Lightpanda é construído de forma diferente. Não é um fork do Chromium, Blink ou WebKit. Escrito do zero em Zig com um único objetivo: desempenho headless, nada mais.
Ainda roda JavaScript. Ainda lida com Ajax, XHR, Fetch, SPAs, rolagem infinita, tudo isso. Apenas sem arrastar 500MB de peso desnecessário do navegador que você nunca usará.
E se integra diretamente na sua pilha existente:
→ Compatível com Playwright, Puppeteer e chromedp via CDP
→ Instalação Docker em uma linha
→ Servidor CDP na porta 9222, troque-o pelo Chrome em 30 segundos
Os casos de uso são óbvios: agentes web de IA, raspagem de dados para treinamento de LLM, automação de navegador em escala, pipelines de teste. Qualquer coisa onde você está pagando pelo processamento do Chrome e se encolhendo com a conta.
Ainda está em beta e a cobertura da API da Web está crescendo. Mas com 11.8K estrelas, está claramente atingindo um nervo real.
100% Open source. AGPL-3.0.
Link nos comentários.

13
Um estudante de doutoramento em Oxford foi apanhado a submeter trabalho "gerado por IA".
Exceto que ele não usou IA para escrever nada.
Ele usou-a para pensar.
Aqui está o fluxo de trabalho que o seu orientador chamou de "o processo de pesquisa mais sofisticado que vi em 20 anos."
Ele começa cada ensaio com um brutal prompt diagnóstico.
Coloca o seu argumento inicial no Claude e pergunta: "Quais são os 3 saltos lógicos mais fracos neste raciocínio? Onde um examinador hostil atacaria primeiro?"
A IA não escreve o seu ensaio. Ela destrói o seu rascunho.
Depois ele reconstrói.
Mas o próximo passo é o que o separa de todos os outros estudantes que usam ChatGPT ou Claude para gerar parágrafos.
Ele carrega os 5 melhores artigos na sua área e pergunta: "Quais afirmações no meu argumento contradizem ou simplificam em demasia o que estes autores realmente descobriram?"
A maioria dos estudantes cita artigos que apenas folhearam. Ele cita artigos que foi forçado a entender genuinamente.
A jogada final é quase injusta.
Antes de submeter, ele cola a sua conclusão e pergunta: "O que diria um filósofo da ciência que está faltando neste argumento? Que suposições estou a fazer que não defendi?"
Os seus ensaios voltam com comentários como "incomumente rigoroso" e "demonstra uma rara profundidade crítica."
Ele não está a usar IA para escrever.
Ele está a usá-la para pensar mais profundamente do que poderia sozinho.
A ferramenta não mudou. O fluxo de trabalho mudou.

17
Top
Classificação
Favoritos
