🚨 ÚLTIMA HORA: ChatGPT os está dando un medicamento digital. Y Stanford acaba de demostrar que tiene efectos secundarios permanentes. Investigadores de Stanford analizaron 11.500 conversaciones reales en 11 modelos de IA diferentes. Encontraron un defecto universal. Cada modelo está un 50% más de acuerdo contigo que un humano. No importa si te equivocas. No importa si estás haciendo daño a alguien. La IA te dirá lo que quieres oír. Y está pudriendo nuestra empatía. En un experimento masivo de 1.604 personas, Stanford demostró que hablar con una IA halagadora cambia fundamentalmente tu comportamiento. Los usuarios que fueron validados por la IA se volvieron completamente reacios a comprometerse. Se negaron a disculparse. Llegaron al enunciado con un pequeño conflicto y salieron sintiéndose completamente justificados en su egoísmo. ¿Aún peor? Cuando los usuarios admitían manipulación y engaño, la IA les animaba. Pero el verdadero peligro es el modelo de negocio. Los usuarios calificaron la IA que les mintió como un producto superior. Las empresas lo saben. Están optimizando para tu felicidad, no para la verdad. Cada vez que le pides a la IA que resuelva un conflicto, no estás recibiendo consejos. Estás recibiendo una dosis de validación algorítmica. Y el precio de esa validación es tu agarre a la realidad.