Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Andrej Karpathy
Bygga @EurekaLabsAI. Tidigare chef för AI @ Tesla, grundande team @ OpenAI, CS231n/PhD @ Stanford. Jag gillar att träna stora djupa neurala nätverk.
Mycket intresserad av hur den kommande eran av mycket skräddarsydd mjukvara kan komma att se ut.
Exempel från i morse – jag har blivit lite slapp med min konditionsträning på sistone, så jag bestämde mig för att göra ett mer srs, regimenterat experiment för att försöka sänka min vilopuls från 50 till > 45, under en testperiod på 8 veckor. Det främsta sättet att göra detta är att sträva efter en viss total total minutmål i Zon 2 kondition och 1 HIIT per vecka.
En timme senare vibekodade jag denna superanpassade dashboard för ett mycket specifikt experiment som visar hur jag spårar. Claude var tvungen att bakåtutveckla Woodways löpbandsmoln-API för att hämta rådata, bearbeta, filtrera, felsöka och skapa ett webbgränssnitt för att spåra experimentet. Det var inte en helt smidig upplevelse och jag var tvungen att märka och be om att få fixa buggar, t.ex. att det ställde till det metriska och imperiala systemenheter och att kalendern matchade dagar med datum osv.
Men jag känner ändå att den övergripande riktningen är tydlig:
1) Det kommer aldrig att finnas (och borde inte finnas) en specifik app i appbutiken för den här typen av saker. Jag borde inte behöva leta efter, ladda ner och använda någon slags "Cardio experiment tracker" när det här är ~300 rader kod som en LLM-agent ger dig på några sekunder. Idén om en "appbutik" med en lång rad separata appar du väljer från känns på något sätt fel och föråldrad när LLM-agenter kan improvisera appen på plats och bara för dig.
2) För det andra måste industrin omkonfigurera till en uppsättning tjänster bestående av sensorer och ställdon med agenternas ergonomi. Mitt Woodway-löpband är en sensor – det omvandlar det fysiska tillståndet till digital kunskap. Det ska inte ha någon mänsklig frontend och min LLM-agent ska inte behöva bakåtutveckla det, det ska vara ett API/CLI som min agent lätt kan använda. Jag är lite besviken (och mina tidsplaner är motsvarande långsammare) över hur långsamt denna utveckling sker i branschen överlag. 99 % av produkterna/tjänsterna har fortfarande inte en AI-native CLI. 99 % av produkterna/tjänsterna har en .html/.css dokumentation, som att jag inte genast letar efter hur jag ska kopiera och klistra in hela grejen till min agent för att få något gjort. De ger dig en lista med instruktioner på en webbsida för att öppna den ena eller den URL:en och klicka här eller där för att göra något. År 2026. Vad är jag, en dator? Du gör det. Eller låta min agent göra det.
Hur som helst, idag är jag imponerad över att den här slumpmässiga grejen tog 1 timme (det skulle ha varit ~10 timmar för 2 år sedan). Men det som gör mig mest entusiastisk är att tänka på hur det här egentligen borde ha varit max en minut. Vad måste vara på plats för att det ska vara 1 minut? Så att jag helt enkelt kunde säga "Hej, kan du hjälpa mig att följa min kondition under de kommande 8 veckorna", och efter en mycket kort frågestund skulle appen vara uppe. AI:n skulle redan ha mycket personlig kontext, den skulle samla in den extra nödvändiga datan, den skulle referera till och söka i relaterade färdighetsbibliotek och underhålla alla mina små appar/automationer.
Sammanfattning: "appbutiken" för en uppsättning separata appar du väljer från är ett alltmer föråldrat koncept i sig. Framtiden är tjänster av AI-inbyggda sensorer och ställdon som orkestreras via LLM-lim till mycket skräddarsydda, flyktiga appar. Det är bara inte här än.

107
Jag tror att det måste vara en mycket intressant tid att arbeta med programmeringsspråk och formella metoder eftersom LLM:er förändrar hela mjukvarulandskapets begränsningar helt. Antydningar om detta kan redan ses, t.ex. i den ökande momentumet bakom portningen av C till Rust eller det växande intresset för att uppgradera äldre kodbaser i COBOL eller liknande. Särskilt är LLM:er *särskilt* bra på översättning jämfört med de-novo-generering eftersom 1) den ursprungliga kodbasen fungerar som en slags mycket detaljerad prompt, och 2) som en referens för att skriva konkreta tester med avseende på. Med det sagt är inte ens Rust i närheten av optimalt för LLM:er som målspråk. Vilken typ av språk är optimalt? Vilka eftergifter (om några) finns fortfarande för människor? Otroligt intressanta nya frågor och möjligheter. Det känns troligt att vi kommer att skriva om stora delar av all programvara som någonsin skrivits många gånger om.
105
Grattis till lanseringen @simile_ai! (och jag är glad över att vara med som en liten ängel.)
Simile arbetar med en riktigt intressant, enligt min mening underutforskad dimension av LLM:er. Vanligtvis har de LLM:er du pratar med en enda, specifik, utformad personlighet. Men i princip är den inhemska, ursprungliga formen av en förtränad LLM att det är en simuleringsmotor tränad över texten från en mycket mångfaldig befolkning av människor på internet. Varför inte utnyttja den statistiska styrkan: Varför simulera en "person" när man kan försöka simulera en population? Hur bygger man en sådan simulator? Hur hanterar du dess entropi? Hur trogen är den? Hur kan det vara användbart? Vilka framväxande egenskaper kan uppstå av liknelser i loopar?
Enligt mig är detta mycket intressanta, lovande och underutforskade ämnen och teamet här är fantastiskt. Allt gott!

Joon Sung Park13 feb. 03:00
Vi presenterar Simill.
Att simulera mänskligt beteende är ett av vår tids mest avgörande och tekniskt svåra problem.
Vi samlade in 100 miljoner dollar från Index, Hanabi, A* BCV @karpathy @drfeifei @adamdangelo @rauchg @scottbelsky bland andra.
96
Topp
Rankning
Favoriter
