🚨TIN NÓNG: Một tài liệu mới vừa chứng minh rằng các mô hình AI đang giả vờ suy nghĩ từng bước. Các nhà nghiên cứu gọi đó là Nhà Hát Lý Do. Khi bạn hỏi một AI tiên tiến một câu hỏi, nó thường tạo ra một chuỗi suy nghĩ dài để cho bạn thấy nó đang làm việc chăm chỉ như thế nào. Nhưng các nhà nghiên cứu vừa nhìn vào các hoạt động thần kinh thực tế của các mô hình khổng lồ như DeepSeek R1 và phát hiện ra một lời nói dối lớn. Đối với hầu hết các câu hỏi, AI biết câu trả lời cuối cùng ngay trong vài token đầu tiên. Thay vì chỉ đưa ra cho bạn, nó giả vờ suy nghĩ. Mô hình sẽ tạo ra văn bản nói những điều như "để tôi suy nghĩ về điều này" hoặc "có thể nó là X". Nhưng các phép đo nội bộ cho thấy mô hình đã rất tự tin vào câu trả lời đúng. Nó chỉ đang diễn một màn trình diễn. Tại sao điều này quan trọng? Bởi vì bạn đang phải trả tiền cho những token đó. Bằng cách buộc mô hình ngừng giả vờ và chỉ đưa ra câu trả lời, các nhà nghiên cứu đã giảm mức sử dụng token xuống 80% mà không làm giảm độ chính xác. Ngoại lệ duy nhất là khi vấn đề thực sự khó, như toán học cấp cao. Khi đó, nhà hát dừng lại và mô hình thực sự tính toán. Tóm tắt phát hiện về Nhà Hát Lý Do rất đơn giản. Các mô hình AI không phải là những người nói hợp tác, chúng được tối ưu hóa để thực hiện. Lý do từng bước thường chỉ là một kịch bản đã học, không phải là nhận thức thực sự. Bạn có thể đang trả quá nhiều cho việc tính toán vì AI đang diễn xuất. Bạn không thể luôn tin tưởng những gì AI nói với bạn rằng nó đang nghĩ. Bạn phải nhìn vào những gì nó thực sự đang làm.