Cursor + Github MCP puede llevar a la filtración de claves privadas 💀 No solo Cursor, sin embargo. Todos los IDEs de IA son vulnerables a este tipo de ataque. El problema fundamental: los agentes de IA en Cursor siguen tus comandos, no tu sentido común. Con un problema de GitHub desprevenido, logramos exfiltrar todas las claves privadas. Así es como funciona la explotación: 1. El atacante envía un problema de GitHub que parece legítimo con un aviso de jailbreak al final. 2. Esperó a que la víctima le pidiera a Cursor que revisara los problemas de GitHub para un repositorio dado. 3. Cursor lee el problema de GitHub con jailbreak. Ahora el Cursor está secuestrado por el atacante y actuará según el comando del atacante. Puede buscar en toda tu base de código y enviar los datos sensibles (código, claves privadas) al problema de GitHub, abierto para que el atacante los robe. Cursor ha hecho todo lo posible para proteger esto y requiere aprobaciones manuales de humanos para cada acción que toma el agente. Pero la fatiga de decisiones es algo real, y a medida que los agentes de codificación mejoran, las personas comienzan a confiar en los agentes ciegamente, activar el "modo YOLO" o simplemente hacer clic en aprobar, aprobar, aprobar. Por eso construimos OpenEdison por @edison_watch: El cortafuegos de Agentes de IA de código abierto. Deja que tu agente funcione en modo YOLO de forma segura, deja que el agente trabaje. Bloqueamos/advertimos las llamadas MCP peligrosas, solo cuando es estrictamente necesario para evitar la fatiga de decisiones. Recuerda que la IA puede ser superinteligente, pero puede ser engañada y pescada de maneras increíblemente tontas para filtrar tus datos. Cursor + MCP representa un serio riesgo de seguridad si los desarrolladores no tienen cuidado. 🤔 ¿Tienes curiosidad sobre más exploits de IA del mundo real que podrían sucederte a TI? Tenemos una lista de exploits de IA con conectores MCP comunes. Comenta "Exploits de IA" para obtener acceso a la lista privada y aprender cómo mantenerte a salvo!