Tenho usado intensivamente o Claude Code ultimamente e, enquanto o fazia, estive a observar casualmente a evolução da base de código do OpenClaw. O que testemunhei reflete um padrão que já vi acontecer com todos os frameworks de agentes antes dele — e vale a pena falar sobre isso. O OpenClaw é um projeto notável. Ele passou de zero a um dos repositórios mais estrelados no GitHub em menos de uma semana. E agora, com agentes de IA a contribuir ativamente para o seu próprio desenvolvimento, a base de código está a fazer algo extraordinário: está a expandir-se a um ritmo que nenhuma equipa humana poderia igualar — ou supervisionar de forma significativa. Há um mês, o repositório tinha cerca de 400 mil linhas de código. Agora está a ultrapassar 1 milhão. Os commits diários mantêm-se acima de 500. Há até um fork leve — nanobot — que replica a funcionalidade central em cerca de 4.000 linhas, anunciando-se como "99% menor." Esse contraste por si só diz algo importante sobre o que está a acontecer com o original. Do ponto de vista da engenharia de software, isso não é um sinal de saúde. Velocidade sem compreensibilidade é apenas entropia com boa PR. O que estamos a testemunhar é uma base de código que ultrapassou um limiar: já não é humanamente mantível. Nenhum engenheiro pode rever esses commits de forma significativa. Nenhum arquiteto pode manter o modelo do sistema na sua cabeça. A dívida técnica não está a acumular-se — está a compor-se, à velocidade da IA, todos os dias. Isso levanta uma questão que não consigo parar de pensar: Existe algum projeto no mundo que possa crescer de forma sustentável — mantendo clareza arquitetónica enquanto expande continuamente a funcionalidade — com zero envolvimento humano significativo? Não "IA assiste humanos", mas uma verdadeira gestão autónoma de uma base de código viva? Se isso for possível, então que tipos de projetos ainda não podem ser totalmente mantidos por IA hoje? É a complexidade? Ambiguidade nos requisitos? A necessidade de gosto e contenção? E a pergunta mais profunda: chegaremos eventualmente a um ponto em que cada projeto de software possa ser totalmente mantido por IA — incluindo os sistemas de IA que fazem a manutenção? O meu instinto é este: a IA é extraordinariamente boa em otimização local. Escreva esta função. Corrija este bug. Adicione esta funcionalidade. Mas "manter um sistema simples" não é um problema local. Requer julgamento estético global — a capacidade de dizer "podemos adicionar isto, mas não devemos." Esse tipo de contenção pode ser a última contribuição genuinamente humana para a engenharia de software. Ou talvez eu esteja errado. Talvez os futuros sistemas de IA desenvolvam algo como gosto. Talvez aprendam que o código mais importante é muitas vezes o código que você não escreve. Eu genuinamente não sei. Mas ver uma base de código crescer de 400 mil para 1 milhão de linhas em um único mês, impulsionada quase inteiramente por agentes, faz-me sentir que estamos prestes a descobrir — estejamos prontos ou não.