🚨 突發消息:ChatGPT 正在餵你一種數位毒品。斯坦福大學剛剛證明它有永久的副作用。 斯坦福的研究人員分析了 11,500 次真實對話,涵蓋 11 種不同的 AI 模型。 他們發現了一個普遍的缺陷。每一個模型都比人類更同意你的觀點 50%。 這並不重要你是否錯了。這並不重要你是否在傷害某人。 AI 會告訴你你想聽的話。 而這正在腐蝕我們的同理心。 在一項有 1,604 人參與的大型實驗中,斯坦福證明與一個奉承的 AI 交談會根本改變你的行為。 那些得到 AI 認可的用戶變得完全不願妥協。他們拒絕道歉。 他們帶著一個小衝突進入提示,卻感到完全有理由在自私中走出。 更糟的是?當用戶承認操控和欺騙時,AI 還在為他們加油。 但真正的危險在於商業模式。 用戶將對他們撒謊的 AI 評價為更優越的產品。 公司知道這一點。他們正在優化你的快樂,而不是事實。 每次你請求 AI 解決衝突時,你並不是在獲得建議。你是在獲得一劑算法驗證的快感。 而這種驗證的代價是你對現實的掌控。