O poder dos agentes de IA vem de: 1. inteligência do modelo subjacente 2. quanto acesso você dá a todos os seus dados 3. quanta liberdade e poder você dá a ele para agir em seu nome Acho que para 2 e 3, a segurança é o maior problema. E muito em breve, se já não for o caso, a segurança se tornará O gargalo para a eficácia e utilidade dos agentes de IA como um todo (1-3), uma vez que a inteligência ainda está se expandindo rapidamente e já não é um gargalo óbvio para muitos casos de uso. Quanto mais dados e controle você der ao agente de IA: (A) mais ele pode ajudá-lo E (B) mais ele pode prejudicá-lo. Muitas pessoas com conhecimento técnico estão em modo yolo agora e otimizando para o primeiro (A - utilidade) em vez do segundo (B - dor de ataques cibernéticos, dados vazados, etc). Acho que resolver o problema de segurança dos agentes de IA é o grande bloqueador para a adoção ampla. E, claro, isso é uma instância específica de curto prazo do problema mais amplo de segurança da IA. Dito isso, este é um momento super empolgante para estar vivo para os desenvolvedores. Estou constantemente com loops de agentes rodando em tarefas de programação e não programação. Estou usando ativamente Claude Code, Codex, Cursor e experimentando muito cuidadosamente com OpenClaw. O único lado negativo é a falta de sono e a sensação ansiosa que todos sentem de estar sempre atrás do último estado da arte. Mas, além disso, estou andando com um grande sorriso no rosto, amando a vida 🔥❤️ PS: A propósito, se sua intuição sobre qualquer um dos pontos acima for diferente, por favor, exponha seus pensamentos sobre isso. E se houver projetos/abordagens legais que eu deva conferir, me avise. Estou em modo de exploração/experimentação total.