Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Andrej Karpathy
Construção @EurekaLabsAI. Anteriormente Diretor de IA @ Tesla, equipe fundadora @ OpenAI, CS231n/PhD @ Stanford. Eu gosto de treinar grandes redes neurais profundas.
Estou muito interessado em como será a próxima era de software altamente personalizado.
Exemplo desta manhã - Tornei-me um pouco relaxado com o meu cardio recentemente, então decidi fazer um experimento mais sério e regimentado para tentar reduzir a minha Frequência Cardíaca em Repouso de 50 -> 45, ao longo de um período de 8 semanas. A principal maneira de fazer isso é aspirar a um certo total de minutos em cardio na Zona 2 e 1 HIIT/semana.
Uma hora depois, eu criei um painel super personalizado para este experimento muito específico que me mostra como estou progredindo. Claude teve que reverter a engenharia da API em nuvem da esteira Woodway para puxar dados brutos, processá-los, filtrá-los, depurá-los e criar uma interface web para acompanhar o experimento. Não foi uma experiência totalmente suave e eu tive que notar e pedir para corrigir bugs, por exemplo, ele estragou as unidades do sistema métrico vs. imperial e teve problemas para alinhar os dias do calendário com as datas, etc.
Mas ainda sinto que a direção geral é clara:
1) Nunca haverá (e não deveria haver) um aplicativo específico na loja de aplicativos para esse tipo de coisa. Eu não deveria ter que procurar, baixar e usar algum tipo de "rastreador de experimento de cardio", quando isso é ~300 linhas de código que um agente LLM pode fornecer em segundos. A ideia de uma "loja de aplicativos" com um longo conjunto de aplicativos discretos dos quais você escolhe parece de alguma forma errada e ultrapassada quando agentes LLM podem improvisar o aplicativo na hora e apenas para você.
2) Em segundo lugar, a indústria precisa se reconfigurar em um conjunto de serviços de sensores e atuadores com ergonomia nativa de agente. Minha esteira Woodway é um sensor - ela transforma o estado físico em conhecimento digital. Não deveria manter uma interface legível por humanos e meu agente LLM não deveria ter que reverter a engenharia dela, deveria ser uma API/CLI facilmente utilizável pelo meu agente. Estou um pouco desapontado (e meus prazos estão correspondentemente mais lentos) com a lentidão dessa progressão na indústria como um todo. 99% dos produtos/serviços ainda não têm uma CLI nativa de IA. 99% dos produtos/serviços mantêm documentos .html/.css como se eu não fosse imediatamente procurar como copiar e colar tudo isso para o meu agente para fazer algo. Eles te dão uma lista de instruções em uma página da web para abrir este ou aquele URL e clicar aqui ou ali para fazer uma coisa. Em 2026. O que sou eu, um computador? Você faz isso. Ou faça meu agente fazer isso.
Então, de qualquer forma, hoje estou impressionado que essa coisa aleatória levou 1 hora (teria levado ~10 horas há 2 anos). Mas o que me excita mais é pensar como isso realmente deveria ter levado no máximo 1 minuto. O que precisa estar em vigor para que isso leve 1 minuto? Para que eu pudesse simplesmente dizer "Oi, você pode me ajudar a acompanhar meu cardio nas próximas 8 semanas", e após uma breve sessão de perguntas e respostas, o aplicativo estaria pronto. A IA já teria muito contexto pessoal, reuniria os dados extras necessários, referenciaria e pesquisaria bibliotecas de habilidades relacionadas, e manteria todos os meus pequenos aplicativos/automação.
Resumindo, a "loja de aplicativos" de um conjunto de aplicativos discretos dos quais você escolhe é um conceito cada vez mais ultrapassado por si só. O futuro são serviços de sensores e atuadores nativos de IA orquestrados via cola LLM em aplicativos altamente personalizados e efêmeros. Simplesmente ainda não está aqui.

116
Acho que deve ser um momento muito interessante para estar nas linguagens de programação e métodos formais, porque os LLMs mudam completamente o panorama das restrições do software. Pistas disso já podem ser vistas, por exemplo, no crescente impulso por portar C para Rust ou no crescente interesse em atualizar bases de código legadas em COBOL, etc. Em particular, os LLMs são *especialmente* bons em tradução em comparação com a geração de novo, porque 1) a base de código original atua como uma espécie de prompt altamente detalhado, e 2) como uma referência para escrever testes concretos a respeito. Dito isso, mesmo Rust está longe de ser o ideal para os LLMs como linguagem-alvo. Que tipo de linguagem é ideal? Que concessões (se houver) ainda são feitas para os humanos? Novas questões e oportunidades incrivelmente interessantes. Parece provável que acabaremos reescrevendo grandes frações de todo o software já escrito muitas vezes.
114
Parabéns pelo lançamento @simile_ai ! (e estou entusiasmado por estar envolvido como um pequeno anjo.)
A Simile está a trabalhar numa dimensão realmente interessante, na minha opinião subexplorada, dos LLMs. Normalmente, os LLMs com os quais você fala têm uma personalidade única, específica e elaborada. Mas, em princípio, a forma nativa e primordial de um LLM pré-treinado é que ele é um motor de simulação treinado sobre o texto de uma população altamente diversificada de pessoas na internet. Por que não aproveitar esse poder estatístico: Por que simular uma "pessoa" quando você poderia tentar simular uma população? Como você constrói tal simulador? Como você gerencia sua entropia? Quão fiel é? Como pode ser útil? Que propriedades emergentes podem surgir de similes em loops?
Na minha opinião, estes são tópicos muito interessantes, promissores e subexplorados e a equipe aqui é ótima. Tudo de bom!

Joon Sung Park13/02, 03:00
Apresentando o Simile.
Simular o comportamento humano é um dos problemas mais consequentes e tecnicamente difíceis do nosso tempo.
Levantámos $100M da Index, Hanabi, A* BCV, @karpathy @drfeifei @adamdangelo @rauchg @scottbelsky, entre outros.
105
Top
Classificação
Favoritos
