Veldig interessert i hvordan den kommende æraen med høyt skreddersydd programvare kan se ut. Eksempel fra i morges – jeg har blitt litt slapp med kondisjonstreningen min i det siste, så jeg bestemte meg for å gjøre et mer srs, regimentert eksperiment for å prøve å senke hvilepulsen min fra 50 til > 45, over et eksperiment på 8 uker. Den viktigste måten å gjøre dette på er å sikte mot et visst antall totale minuttmål i Sone 2 kondisjon og 1 HIIT i uken. En time senere vibe-kodet jeg dette supertilpassede dashbordet for et veldig spesifikt eksperiment som viser meg hvordan jeg sporer. Claude måtte reversere Woodway-tredemølle-sky-API-en for å hente rådata, behandle, filtrere, feilsøke og lage et webgrensesnitt-frontend for å spore eksperimentet. Det var ikke en helt smidig opplevelse, og jeg måtte legge merke til og be om å fikse feil, for eksempel at det rotet til metriske og imperiale systemenheter, og at kalenderen stemte sammen med dager og datoer osv. Men jeg føler fortsatt at den overordnede retningen er klar: 1) Det vil aldri finnes (og bør ikke finnes) en spesifikk app i appbutikken for denne typen ting. Jeg burde ikke måtte lete etter, laste ned og bruke en slags "Cardio experiment tracker" når dette er ~300 linjer kode som en LLM-agent gir deg på sekunder. Ideen om en «appbutikk» med en lang hale av separate apper du velger fra føles på en eller annen måte feil og utdatert når LLM-agenter kan improvisere appen på stedet og bare for deg. 2) For det andre må industrien omkonfigurere seg til et sett med sensorer og aktuatorer med agent-native ergonomi. Min Woodway-tredemølle er en sensor – den omdanner fysisk tilstand til digital kunnskap. Den skal ikke opprettholde en menneskelesbar frontend, og min LLM-agent skal ikke måtte reversere det, det skal være en API/CLI som er lett brukbar for agenten min. Jeg er litt skuffet (og tidslinjene mine er tilsvarende tregere) over hvor sakte denne utviklingen skjer i bransjen generelt. 99 % av produkter/tjenester har fortsatt ikke en AI-native CLI ennå. 99 % av produkter/tjenester opprettholder .html/.css dokumentasjon som om jeg ikke umiddelbart leter etter hvordan jeg skal kopiere og lime inn hele greia til agenten min for å få noe gjort. De gir deg en liste med instruksjoner på en nettside for å åpne denne eller den URL-en og klikke her eller der for å gjøre noe. I 2026. Hva er jeg, en datamaskin? Du gjør det. Eller la agenten min gjøre det. Uansett, i dag er jeg imponert over at denne tilfeldige tingen tok 1 time (det ville vært ~10 timer for 2 år siden). Men det som begeistrer meg mest, er å tenke på hvordan dette egentlig burde vært maks ett minutt. Hva må være på plass for at det skal være 1 minutt? Slik at jeg enkelt kunne si «Hei, kan du hjelpe meg med å følge med på kondisjonen min de neste 8 ukene», og etter en veldig kort Q&A ville appen være oppe. AI-en vil allerede ha mye personlig kontekst, den vil samle inn nødvendig ekstra data, den vil referere til og søke i relaterte ferdighetsbiblioteker, og vedlikeholde alle mine små apper/automatiseringer. Kort oppsummert: «appbutikken» med et sett med separate apper du velger fra er et stadig mer utdatert konsept i seg selv. Fremtiden er tjenester med AI-native sensorer og aktuatorer orkestrert via LLM-lim i svært tilpassede, flyktige apper. Det er bare ikke her ennå.