Chain of Thought er død. Jeg testet nettopp Skeleton of Thought-prompting, og den halverer responslatensen på strukturerte oppgaver med skarpere resultater. Innsikten ødela min mentale modell for hvordan AI burde generere tekst. CoT tvinger modellen til å tenke og skrive samtidig. Punkt 1 må fullføres før Punkt 2 kan starte. Punkt 2 må være ferdig før punkt 3. Hver token blokkeres av tokenet foran seg. Det er ikke slik eksperter faktisk strukturerer informasjon. En McKinsey-konsulent skriver ikke en rapport lineært. De skisserer hver seksjon først, og utvikler deretter hver enkelt separat. En professor utarbeider ikke forelesningsnotater fra start til slutt. De skjeletter temaene, og fyller dem deretter inn. SoT matcher endelig det. Fase 1 - Skjelett: Modellen skriver først en enkel disposisjon av hvert punkt. Ingen utdyping. Bare struktur. Raskt. Fase 2 - Parallellfylling: Hvert skjelettpunkt utvides uavhengig og samtidig. Punkt 3 venter ikke på punkt 2. Punkt 5 venter ikke på punkt 4. En feil gren bremser ikke alle grenene etter den. Den nøyaktige promptstrukturen: "Først, skriv et kortfattet skjelett av svaret ditt som en liste over nøkkelpunkter. Utvid deretter hvert punkt uavhengig og i sin helhet. Format: [Skjelett] etterfulgt av [Punkt 1], [Punkt 2], osv." Det er det. Det er hele opplåsingen. Hvor SoT dominerer:...