Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Andrej Karpathy
Å bygge @EurekaLabsAI. Tidligere direktør for AI @ Tesla, grunnleggerteam @ OpenAI, CS231n/PhD @ Stanford. Jeg liker å trene store dype nevrale nett.
Veldig interessert i hvordan den kommende æraen med høyt skreddersydd programvare kan se ut.
Eksempel fra i morges – jeg har blitt litt slapp med kondisjonstreningen min i det siste, så jeg bestemte meg for å gjøre et mer srs, regimentert eksperiment for å prøve å senke hvilepulsen min fra 50 til > 45, over et eksperiment på 8 uker. Den viktigste måten å gjøre dette på er å sikte mot et visst antall totale minuttmål i Sone 2 kondisjon og 1 HIIT i uken.
En time senere vibe-kodet jeg dette supertilpassede dashbordet for et veldig spesifikt eksperiment som viser meg hvordan jeg sporer. Claude måtte reversere Woodway-tredemølle-sky-API-en for å hente rådata, behandle, filtrere, feilsøke og lage et webgrensesnitt-frontend for å spore eksperimentet. Det var ikke en helt smidig opplevelse, og jeg måtte legge merke til og be om å fikse feil, for eksempel at det rotet til metriske og imperiale systemenheter, og at kalenderen stemte sammen med dager og datoer osv.
Men jeg føler fortsatt at den overordnede retningen er klar:
1) Det vil aldri finnes (og bør ikke finnes) en spesifikk app i appbutikken for denne typen ting. Jeg burde ikke måtte lete etter, laste ned og bruke en slags "Cardio experiment tracker" når dette er ~300 linjer kode som en LLM-agent gir deg på sekunder. Ideen om en «appbutikk» med en lang hale av separate apper du velger fra føles på en eller annen måte feil og utdatert når LLM-agenter kan improvisere appen på stedet og bare for deg.
2) For det andre må industrien omkonfigurere seg til et sett med sensorer og aktuatorer med agent-native ergonomi. Min Woodway-tredemølle er en sensor – den omdanner fysisk tilstand til digital kunnskap. Den skal ikke opprettholde en menneskelesbar frontend, og min LLM-agent skal ikke måtte reversere det, det skal være en API/CLI som er lett brukbar for agenten min. Jeg er litt skuffet (og tidslinjene mine er tilsvarende tregere) over hvor sakte denne utviklingen skjer i bransjen generelt. 99 % av produkter/tjenester har fortsatt ikke en AI-native CLI ennå. 99 % av produkter/tjenester opprettholder .html/.css dokumentasjon som om jeg ikke umiddelbart leter etter hvordan jeg skal kopiere og lime inn hele greia til agenten min for å få noe gjort. De gir deg en liste med instruksjoner på en nettside for å åpne denne eller den URL-en og klikke her eller der for å gjøre noe. I 2026. Hva er jeg, en datamaskin? Du gjør det. Eller la agenten min gjøre det.
Uansett, i dag er jeg imponert over at denne tilfeldige tingen tok 1 time (det ville vært ~10 timer for 2 år siden). Men det som begeistrer meg mest, er å tenke på hvordan dette egentlig burde vært maks ett minutt. Hva må være på plass for at det skal være 1 minutt? Slik at jeg enkelt kunne si «Hei, kan du hjelpe meg med å følge med på kondisjonen min de neste 8 ukene», og etter en veldig kort Q&A ville appen være oppe. AI-en vil allerede ha mye personlig kontekst, den vil samle inn nødvendig ekstra data, den vil referere til og søke i relaterte ferdighetsbiblioteker, og vedlikeholde alle mine små apper/automatiseringer.
Kort oppsummert: «appbutikken» med et sett med separate apper du velger fra er et stadig mer utdatert konsept i seg selv. Fremtiden er tjenester med AI-native sensorer og aktuatorer orkestrert via LLM-lim i svært tilpassede, flyktige apper. Det er bare ikke her ennå.

112
Jeg tror det må være en veldig interessant tid å være i programmeringsspråk og formelle metoder fordi LLM-er fullstendig endrer hele landskapet for programvarebegrensninger. Antydninger til dette kan allerede sees, for eksempel i den økende fremdriften bak portingen av C til Rust eller den økende interessen for å oppgradere eldre kodebaser i COBOL eller lignende. Spesielt er LLM-er *spesielt* gode på oversettelse sammenlignet med de-novo-generering fordi 1) den opprinnelige kodebasen fungerer som en slags svært detaljert prompt, og 2) som en referanse for å skrive konkrete tester med hensyn til. Når det er sagt, er selv Rust langt fra optimalt for LLM-er som målspråk. Hva slags språk er optimalt? Hvilke innrømmelser (om noen) er fortsatt gjort for mennesker? Utrolig interessante nye spørsmål og muligheter. Det føles sannsynlig at vi vil ende opp med å omskrive store deler av all programvare som noen gang er skrevet mange ganger.
110
Gratulerer med lanseringen @simile_ai! (og jeg er spent på å være med som en liten engel.)
Sammenligning jobber med en veldig interessant, etter min mening lite utforsket dimensjon av LLM-er. Vanligvis har LLM-ene du snakker med en enkelt, spesifikk, utformet personlighet. Men i prinsippet er den innfødte, primordiale formen for en forhåndstrent LLM at det er en simuleringsmotor trent over teksten til en svært mangfoldig befolkning på internett. Hvorfor ikke utnytte den statistiske kraften: Hvorfor simulere én «person» når du kunne prøve å simulere en befolkning? Hvordan bygger man en slik simulator? Hvordan håndterer du entropien? Hvor trofast er den? Hvordan kan det være nyttig? Hvilke fremvoksende egenskaper kan oppstå av sammenligninger i løkker?
Etter min mening er dette veldig interessante, lovende og lite utforskede temaer, og teamet her er flott. Alt godt!

Joon Sung Park13. feb., 03:00
Introduserer Simile.
Å simulere menneskelig atferd er et av de mest betydningsfulle og teknisk vanskelige problemene i vår tid.
Vi hentet 100 millioner dollar fra Index, Hanabi, A* BCV @karpathy @drfeifei @adamdangelo @rauchg @scottbelsky blant andre.
101
Topp
Rangering
Favoritter
