Chain of Thought está morta. Acabei de testar o Skeleton of Thought prompting e ele está reduzindo pela metade a latência de resposta em tarefas estruturadas com resultados mais nítidos. A percepção destruiu meu modelo mental de como a IA deveria gerar texto. O CoT força o modelo a pensar e escrever ao mesmo tempo. O Ponto 1 deve ser concluído antes que o Ponto 2 possa começar. O Ponto 2 deve terminar antes do Ponto 3. Todo token é bloqueado pelo token anterior a ele. Não é assim que os especialistas realmente estruturam as informações. Um consultor da McKinsey não escreve um relatório de forma linear. Eles delineiam cada seção primeiro, depois desenvolvem cada uma de forma independente. Um professor não faz anotações do começo ao fim. Eles esqueletam os tópicos e depois preenchem tudo. SoT finalmente iguala isso. Fase 1 - Esqueleto: O modelo escreve primeiro um esboço básico de cada ponto. Sem explicações. Só estrutura. Rápido. Fase 2 - Preenchimento Paralelo: Cada ponto do esqueleto é expandido de forma independente e simultânea. O Ponto 3 não espera pelo Ponto 2. O Ponto 5 não espera pelo Ponto 4. Um ramo errado não desacelera todos os ramos depois dele. A estrutura exata do prompt: "Primeiro, escreva um esqueleto conciso da sua resposta como uma lista de pontos-chave. Depois, expanda cada ponto de forma independente e completa. Formato: [Esqueleto] seguido por [Ponto 1], [Ponto 2], etc." É isso. Esse é o desbloqueio completo. Onde SoT predomina:...