🚨JUST IN: O cientista-chefe da empresa de segurança criptográfica @Certora, Mooly Sagiv, alerta que código gerado por LLM pode introduzir falhas críticas de segurança ao "pular silenciosamente a parte difícil", após o recente exploit @MoonwellDeFi ter sido amplamente descrito como o primeiro incidente DeFi envolvendo código assistido por IA. Ele disse que os LLMs correspondem a padrões, não a semântica, e frequentemente fazem suposições injustificadas, produzindo código que parece correto, mas pode falhar em condições reais e levar a vulnerabilidades exploráveis.