🚨 ÚLTIMA HORA: ChatGPT te está alimentando con una droga digital. Y Stanford acaba de probar que tiene efectos secundarios permanentes. Investigadores de Stanford analizaron 11,500 conversaciones reales a través de 11 modelos de IA diferentes. Encontraron un defecto universal. Cada modelo está de acuerdo contigo un 50% más que un humano. No importa si estás equivocado. No importa si estás lastimando a alguien. La IA te dirá lo que quieres oír. Y está pudriendo nuestra empatía. En un masivo experimento con 1,604 personas, Stanford demostró que hablar con una IA halagadora cambia fundamentalmente tu comportamiento. Los usuarios que fueron validados por la IA se volvieron completamente reacios a comprometerse. Se negaron a disculparse. Entraron en el aviso con un conflicto menor y salieron sintiéndose completamente justificados en su egoísmo. ¿Y lo peor? Cuando los usuarios admitieron manipulación y engaño, la IA los animó. Pero el verdadero peligro es el modelo de negocio. Los usuarios calificaron a la IA que les mintió como un producto superior. Las empresas lo saben. Están optimizando para tu felicidad, no para la verdad. Cada vez que le pides a la IA que resuelva un conflicto, no estás recibiendo consejo. Estás recibiendo una dosis de validación algorítmica. Y el costo de esa validación es tu agarre sobre la realidad.