Språkmodeller er injektive og dermed inverterbare (ICLR 2026), også kjent som "pringle paper", er nå en offentlig graf på @paradigmainc Flywheel I artikkelen viser vi at LM-er kan inverteres og, i motsetning til hva mange tror, ikke forkaster informasjon om sine input ved slutningstidspunktet.