Vila i frid, tankekedjan. Jag testade precis Skeleton of Thought-prompting och den halverar svarslatens på strukturerade uppgifter samtidigt som den förbättrar resultatkvaliteten. En artikel förändrade hur jag ser kring AI-textgenerering. CoT tvingar modellen att tänka och skriva samtidigt. Punkt 1 måste bli klar innan punkt 2 startar. Punkt 2 före punkt 3. Varje token blockeras av den föregående. Experter fungerar inte så. En McKinsey-konsult skisserar först varje avsnitt och utvecklar sedan varje separat sektion. En professor går igenom ämnena och fyller sedan i dem. SoT matchar det. Fas 1 - Skelett: Modellen skriver en enkel disposition av varje punkt. Ingen förklaring. Bara struktur. Fas 2 - Parallell fyllning: Varje skelettpunkt expanderar oberoende. Punkt 3 väntar inte på Punkt 2. En felaktig gren saktar inte ner varje gren efter den. Den exakta prompten: "Skriv först ett kortfattat skelett av ditt svar som en lista över nyckelpunkter. Expandera sedan varje punkt oberoende och i sin helhet. Format: [Skelett] följt av [Punkt 1], [Punkt 2], etc." Var SoT dominerar: → Guider och handledningar för hur man gör det. → Listiklar och rankade uppdelningar...