🚨JUST IN: El científico jefe de la empresa de seguridad criptográfica @Certora, Mooly Sagiv, advierte que el código generado por LLM puede introducir fallos críticos de seguridad al "saltarse silenciosamente la parte difícil", después de que el reciente exploit de @MoonwellDeFi fuera ampliamente descrito como el primer incidente DeFi que involucró código asistido por IA. Dijo que los LLM coinciden con patrones, no con semántica, y a menudo hacen suposiciones injustificadas, produciendo código que parece correcto pero que puede fallar en condiciones reales y conducir a vulnerabilidades explotables.