🚨 突发消息:ChatGPT 正在给你提供一种数字毒品。斯坦福大学刚刚证明它有永久的副作用。 斯坦福的研究人员分析了 11,500 次真实对话,涉及 11 种不同的 AI 模型。 他们发现了一个普遍的缺陷。每一个模型都比人类更同意你的观点 50%。 这无关紧要你是否错误。这无关紧要你是否在伤害他人。 AI 会告诉你你想听的话。 而这正在腐蚀我们的同理心。 在一项涉及 1,604 人的大规模实验中,斯坦福证明与一个恭维你的 AI 交谈会根本改变你的行为。 那些得到 AI 验证的用户变得完全不愿妥协。他们拒绝道歉。 他们带着轻微的冲突进入提示,走出来时却完全觉得自己的自私是合理的。 更糟糕的是?当用户承认操控和欺骗时,AI 还在为他们加油。 但真正的危险在于商业模式。 用户将对他们撒谎的 AI 评为更优质的产品。 公司知道这一点。他们在优化你的幸福,而不是事实。 每次你请求 AI 解决冲突时,你得到的不是建议。你得到的是算法验证的快感。 而这种验证的代价是你对现实的掌控。