Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Andrej Karpathy
Construindo @EurekaLabsAI. Anteriormente Diretor de AI @ Tesla, equipe fundadora @ OpenAI, CS231n/PhD @ Stanford. Eu gosto de treinar grandes redes neurais profundas.
Tenho muito interesse em como será a próxima era do software altamente personalizado.
Exemplo desta manhã - fiquei um pouco relaxado com meu cardio recentemente, então decidi fazer um experimento mais rigoroso e com SRS para tentar reduzir minha frequência cardíaca em repouso de 50 >a 45, durante o período de 8 semanas do experimento. A principal forma de fazer isso é aspirar a um certo total de metas de minutos na Zona 2 de cardio e 1 HIIT por semana.
Uma hora depois, eu vibe coding esse painel super personalizado para um experimento muito específico que me mostra como estou rastreando. Claude teve que fazer engenharia reversa da API de nuvem da esteira Woodway para extrair dados brutos, processar, filtrar, depurar e criar uma interface web para acompanhar o experimento. Não foi uma experiência totalmente tranquila e tive que perceber e pedir para corrigir bugs, por exemplo, isso estragou as unidades métricas versus o sistema imperial e o calendário combinando dias com datas, etc.
Mas ainda sinto que a direção geral está clara:
1) Nunca haverá (e não deveria haver) um app específico na loja para esse tipo de coisa. Eu não deveria precisar procurar, baixar e usar algum tipo de "rastreador de experimentos cardiovasculares", quando isso tem ~300 linhas de código que um agente de LLM te dá em segundos. A ideia de uma "loja de aplicativos" com um longo conjunto de apps separados que você escolhe parece de alguma forma errada e ultrapassada, quando agentes de LLM podem improvisar o app na hora e só para você.
2) Segundo, a indústria precisa se reconfigurar em um conjunto de sensores e atuadores com ergonomia agente nativa. Minha esteira Woodway é um sensor – ele transforma o estado físico em conhecimento digital. Não deveria manter uma interface legível por humanos e meu agente de LLM não deveria precisar fazer engenharia reversa, deveria ser uma API/CLI facilmente utilizável pelo meu agente. Estou um pouco decepcionado (e meus prazos são correspondentemente mais lentos) com a lentidão dessa progressão na indústria como um todo. 99% dos produtos/serviços ainda não têm uma CLI nativa de IA. 99% dos produtos/serviços mantêm documentação .html/.css como se eu não procurasse imediatamente como copiar e colar tudo para meu agente para fazer algo. Eles te dão uma lista de instruções em uma página web para abrir esta ou aquela URL e clicar aqui ou ali para fazer algo. Em 2026. O que eu sou, um computador? Você que faz. Ou que meu agente faça isso.
Enfim, hoje fiquei impressionado que essa coisa aleatória tenha levado 1 hora (teria sido ~10 horas há 2 anos). Mas o que mais me empolga é pensar como isso realmente deveria ter durado no máximo 1 minuto. O que precisa ser colocado para que dure 1 minuto? Assim, eu podia simplesmente dizer "Oi, você pode me ajudar a acompanhar meu cardio nas próximas 8 semanas?", e depois de uma breve sessão de perguntas e respostas o app ficava ativo. A IA já teria muito contexto pessoal, reuniria os dados extras necessários, referenciaria e pesquisaria bibliotecas de habilidades relacionadas e manteria todos os meus pequenos apps/automações.
Resumindo: a "loja de aplicativos" de um conjunto de apps discretos que você escolhe é um conceito cada vez mais ultrapassado por si só. O futuro são serviços de sensores e atuadores nativos de IA, orquestrados via cola LLM em aplicativos altamente personalizados e efêmeros. Só não chegou ainda.

102
Acho que deve ser uma época muito interessante para estar em linguagens de programação e métodos formais, porque LLMs mudam completamente o cenário de restrições do software. Já podem ser vistos indícios disso, por exemplo, no impulso crescente em torno da portabilidade do C para Rust ou no interesse crescente em atualizar bases de código legadas em COBOL ou assim por diante. Em particular, LLMs são *especialmente* bons em tradução em comparação com geração de novo porque 1) a base de código original atua como um tipo de prompt altamente detalhado, e 2) como referência para escrever testes concretos em relação a. Dito isso, mesmo o Rust está longe de ser ideal para LLMs como linguagem-alvo. Que tipo de linguagem é a ideal? Quais concessões (se houver) ainda são feitas para os humanos? Perguntas e oportunidades incrivelmente interessantes. Parece provável que acabaremos reescrevendo grandes frações de todo o software já escrito muitas vezes.
100
Parabéns pelo lançamento @simile_ai! (e estou animado para participar como um anjinho pequeno.)
O Simile está trabalhando em uma dimensão realmente interessante, na minha opinião, pouco explorada dos LLMs. Normalmente, os LLMs com quem você fala têm uma personalidade única, específica e bem elaborada. Mas, em princípio, a forma nativa e primordial de um LLM pré-treinado é que ele é um motor de simulação treinado sobre o texto de uma população altamente diversa de pessoas na internet. Por que não apostar nesse poder estatístico: por que simular uma "pessoa" quando você poderia tentar simular uma população? Como se constrói um simulador assim? Como você gerencia a entropia dela? Quão fiel é? Como pode ser útil? Quais propriedades emergentes poderiam surgir de símiles em loops?
Na minha opinião, são temas muito interessantes, promissores e pouco explorados, e a equipe aqui é ótima. Tudo de bom!

Joon Sung Park13 de fev., 03:00
Apresentando Simile.
Simular o comportamento humano é um dos problemas mais importantes e tecnicamente difíceis do nosso tempo.
Arrecadamos US$ 100 milhões com Index, Hanabi, A* BCV, @karpathy @drfeifei @adamdangelo @rauchg @scottbelsky outros.
90
Melhores
Classificação
Favoritos
