Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Andrej Karpathy
Budynek @EurekaLabsAI. Wcześniej dyrektor AI @ Tesla, zespół założycielski @ OpenAI, CS231n/PhD @ Stanford. Lubię trenować duże, głębokie sieci neuronowe.
Bardzo interesuje mnie, jak może wyglądać nadchodząca era wysoce spersonalizowanego oprogramowania.
Przykład z dzisiaj rano - ostatnio stałem się trochę zbyt luźny w moim cardio, więc postanowiłem przeprowadzić bardziej poważny, zorganizowany eksperyment, aby spróbować obniżyć moje spoczynkowe tętno z 50 -> 45, w ciągu 8 tygodni eksperymentu. Głównym sposobem na osiągnięcie tego celu jest dążenie do określonej sumy minut w strefie 2 cardio oraz 1 HIIT w tygodniu.
Godzinę później stworzyłem ten super spersonalizowany pulpit nawigacyjny dla tego bardzo specyficznego eksperymentu, który pokazuje, jak mi idzie. Claude musiał odwrócić inżynierię chmury API bieżni Woodway, aby pobrać surowe dane, przetworzyć je, filtrować, debugować i stworzyć interfejs frontendowy do śledzenia eksperymentu. To nie było całkowicie płynne doświadczenie i musiałem zauważyć i poprosić o naprawienie błędów, np. pomyliło jednostki metryczne z imperialnymi i pomyliło dni z datami w kalendarzu itd.
Ale wciąż czuję, że ogólny kierunek jest jasny:
1) Nigdy nie będzie (i nie powinno być) konkretnej aplikacji w sklepie z aplikacjami dla tego rodzaju rzeczy. Nie powinienem musieć szukać, pobierać i używać jakiegoś "tracker'a eksperymentu cardio", gdy ta rzecz to ~300 linii kodu, które agent LLM da ci w kilka sekund. Idea "sklepu z aplikacjami" z długim ogonem dyskretnych aplikacji, z których wybierasz, wydaje się w jakiś sposób błędna i przestarzała, gdy agenci LLM mogą improwizować aplikację na miejscu i tylko dla ciebie.
2) Po drugie, przemysł musi przekształcić się w zestaw usług czujników i aktuatorów z ergonomiką natywną dla agentów. Moja bieżnia Woodway jest czujnikiem - przekształca stan fizyczny w wiedzę cyfrową. Nie powinna utrzymywać jakiegoś interfejsu zrozumiałego dla ludzi, a mój agent LLM nie powinien musieć jej odwracać, powinna być API/CLI łatwo używalne przez mojego agenta. Jestem trochę rozczarowany (a moje harmonogramy są odpowiednio wolniejsze) tym, jak wolno postępuje ta progresja w przemyśle ogólnie. 99% produktów/usług wciąż nie ma natywnego CLI AI. 99% produktów/usług utrzymuje dokumentację .html/.css, jakbym nie miał od razu szukać, jak skopiować całość do mojego agenta, aby coś zrobić. Dają ci listę instrukcji na stronie internetowej, aby otworzyć ten lub tamten adres URL i kliknąć tu lub tam, aby coś zrobić. W 2026 roku. Co ja, komputer? Zrób to. Albo niech mój agent to zrobi.
Tak czy inaczej, dzisiaj jestem pod wrażeniem, że ta losowa rzecz zajęła 1 godzinę (to zajęłoby ~10 godzin 2 lata temu). Ale co mnie bardziej ekscytuje, to myślenie o tym, jak to naprawdę powinno zająć maksymalnie 1 minutę. Co musi być na miejscu, aby to zajmowało 1 minutę? Żebym mógł po prostu powiedzieć "Cześć, czy możesz mi pomóc śledzić moje cardio przez następne 8 tygodni", a po bardzo krótkim Q&A aplikacja byłaby gotowa. AI miałoby już dużo osobistego kontekstu, zebrałoby dodatkowe potrzebne dane, odwołałoby się i przeszukałoby powiązane biblioteki umiejętności oraz utrzymywałoby wszystkie moje małe aplikacje/automatyzacje.
TLDR "sklep z aplikacjami" z zestawem dyskretnych aplikacji, z których wybierasz, to coraz bardziej przestarzała koncepcja sama w sobie. Przyszłość to usługi natywnych czujników i aktuatorów AI, zorganizowane za pomocą LLM w wysoce spersonalizowane, efemeryczne aplikacje. To po prostu jeszcze nie nadeszło.

120
Myślę, że to musi być bardzo interesujący czas dla języków programowania i metod formalnych, ponieważ LLM zmieniają całkowicie krajobraz ograniczeń oprogramowania. Wskazówki na ten temat można już dostrzec, np. w rosnącej dynamice przenoszenia C do Rust lub w rosnącym zainteresowaniu modernizacją starych baz kodu w COBOL-u itd. W szczególności LLM są *szczególnie* dobre w tłumaczeniu w porównaniu do generacji de-novo, ponieważ 1) oryginalna baza kodu działa jako rodzaj bardzo szczegółowego podpowiedzi, a 2) jako odniesienie do pisania konkretnych testów. Mówiąc to, nawet Rust nie jest wcale optymalny dla LLM jako język docelowy. Jaki rodzaj języka jest optymalny? Jakie ustępstwa (jeśli w ogóle) są nadal wypracowywane dla ludzi? Niezwykle interesujące nowe pytania i możliwości. Wydaje się prawdopodobne, że skończymy na przepisaniu dużych części całego oprogramowania, które kiedykolwiek zostało napisane, wiele razy.
118
Gratulacje z okazji uruchomienia @simile_ai! (i cieszę się, że mogę być zaangażowany jako mały anioł.)
Simile pracuje nad naprawdę interesującym, moim zdaniem niedostatecznie zbadanym wymiarem LLM-ów. Zwykle LLM-y, z którymi rozmawiasz, mają jedną, konkretną, starannie wykreowaną osobowość. Ale w zasadzie, pierwotna forma wstępnie wytrenowanego LLM-u to silnik symulacyjny wytrenowany na tekstach bardzo zróżnicowanej populacji ludzi w internecie. Dlaczego nie skorzystać z tej statystycznej mocy: dlaczego symulować jedną "osobę", gdy można spróbować symulować populację? Jak zbudować taką symulację? Jak zarządzać jej entropią? Jak wierna jest? Jak może być użyteczna? Jakie właściwości emergentne mogą się pojawić w symulacjach w pętlach?
Moim zdaniem to bardzo interesujące, obiecujące i niedostatecznie zbadane tematy, a zespół tutaj jest świetny. Wszystkiego najlepszego!

Joon Sung Park13 lut, 03:00
Przedstawiamy Simile.
Symulowanie ludzkiego zachowania jest jednym z najważniejszych i technicznie najtrudniejszych problemów naszych czasów.
Zebraliśmy 100 milionów dolarów od Index, Hanabi, A* BCV, @karpathy @drfeifei @adamdangelo @rauchg @scottbelsky i innych.
109
Najlepsze
Ranking
Ulubione
