OpenAI đang cập nhật thỏa thuận DoW của mình, vạch ra một ranh giới rõ ràng và thừa nhận rằng việc triển khai đã bị vội vàng và thông báo kém. Cam kết cấp độ thỏa thuận > Không giám sát trong nước đối với công dân Mỹ. > Không theo dõi bằng cách sử dụng dữ liệu cá nhân mua từ thương mại. > Không sử dụng bởi các cơ quan tình báo như NSA mà không có hợp đồng mới. > Không tuân thủ các lệnh vi hiến. > Triển khai chậm hơn và thận trọng hơn vì công nghệ vẫn chưa sẵn sàng cho mọi thứ.
Sam Altman
Sam Altman09:15 3 thg 3
Đây là bài đăng lại từ một bài đăng nội bộ: Chúng tôi đã làm việc với DoW để thực hiện một số bổ sung trong thỏa thuận của chúng tôi nhằm làm rõ các nguyên tắc của mình. 1. Chúng tôi sẽ sửa đổi thỏa thuận của mình để thêm ngôn ngữ này, bên cạnh mọi thứ khác: "• Nhất quán với các luật hiện hành, bao gồm Tu chính án thứ tư của Hiến pháp Hoa Kỳ, Đạo luật An ninh Quốc gia năm 1947, Đạo luật FISA năm 1978, hệ thống AI sẽ không được sử dụng một cách cố ý cho việc giám sát trong nước đối với công dân và quốc gia Hoa Kỳ. • Để tránh hiểu lầm, Bộ hiểu rằng giới hạn này cấm việc theo dõi, giám sát hoặc theo dõi cố ý đối với công dân hoặc quốc gia Hoa Kỳ, bao gồm cả việc thu thập hoặc sử dụng thông tin cá nhân hoặc có thể nhận diện được mua từ thương mại." Việc bảo vệ quyền tự do dân sự của người Mỹ là rất quan trọng, và có rất nhiều sự chú ý vào điều này, vì vậy chúng tôi muốn làm rõ điểm này, đặc biệt là xung quanh thông tin được mua từ thương mại. Giống như mọi thứ chúng tôi làm với việc triển khai lặp đi lặp lại, chúng tôi sẽ tiếp tục học hỏi và hoàn thiện khi tiến về phía trước. Tôi nghĩ đây là một thay đổi quan trọng; đội ngũ của chúng tôi và đội ngũ DoW đã làm rất tốt công việc này. 2. Bộ cũng khẳng định rằng dịch vụ của chúng tôi sẽ không được sử dụng bởi các cơ quan tình báo của Bộ Chiến tranh (ví dụ, NSA). Bất kỳ dịch vụ nào cho các cơ quan đó sẽ yêu cầu một sửa đổi tiếp theo đối với hợp đồng của chúng tôi. 3. Để làm rõ: chúng tôi muốn làm việc thông qua các quy trình dân chủ. Chính phủ nên là bên đưa ra các quyết định chính về xã hội. Chúng tôi muốn có tiếng nói và một chỗ ngồi tại bàn nơi chúng tôi có thể chia sẻ chuyên môn của mình, và đấu tranh cho các nguyên tắc tự do. Nhưng chúng tôi rõ ràng về cách hệ thống hoạt động (bởi vì nhiều người đã hỏi, nếu tôi nhận được điều mà tôi tin là một lệnh vi hiến, tất nhiên tôi thà đi tù còn hơn là tuân theo nó). Nhưng 4. Có nhiều điều mà công nghệ chưa sẵn sàng, và nhiều lĩnh vực mà chúng tôi vẫn chưa hiểu rõ về các sự đánh đổi cần thiết cho sự an toàn. Chúng tôi sẽ làm việc qua những điều này, từ từ, với DoW, với các biện pháp bảo vệ kỹ thuật và các phương pháp khác. 5. Một điều tôi nghĩ tôi đã làm sai: chúng tôi không nên vội vàng đưa điều này ra vào thứ Sáu. Các vấn đề rất phức tạp, và đòi hỏi sự giao tiếp rõ ràng. Chúng tôi thực sự đang cố gắng làm giảm căng thẳng và tránh một kết quả tồi tệ hơn, nhưng tôi nghĩ nó chỉ trông có vẻ cơ hội và cẩu thả. Đây là một bài học tốt cho tôi khi chúng tôi đối mặt với những quyết định có mức độ rủi ro cao hơn trong tương lai. Trong các cuộc trò chuyện của tôi vào cuối tuần, tôi đã nhắc lại rằng Anthropic không nên được chỉ định là một SCR, và chúng tôi hy vọng DoW sẽ cung cấp cho họ các điều khoản giống như những gì chúng tôi đã đồng ý. Chúng tôi sẽ tổ chức một cuộc họp All Hands vào sáng mai để trả lời thêm câu hỏi.
Quan điểm cá nhân của Sam Altman : > Kiểm soát dân chủ phải thuộc về chính phủ và người dân, không phải các công ty tư nhân. > AI phải được dân chủ hóa để cá nhân có quyền lực, chứ không phải mất đi quyền lực. > Bảo vệ quyền riêng tư là một trụ cột không thể thương lượng của nền dân chủ. > Triển khai theo từng bước là rất quan trọng để xã hội có thể thích ứng khi công nghệ phát triển. > Giáo dục công chúng rộng rãi về AI là cấp bách để nền dân chủ có thể theo kịp. > OpenAI có trách nhiệm nói rõ về các rủi ro, giới hạn và lợi ích. > Hợp tác với chính phủ là cần thiết, nhưng phải tránh các hành động hoảng loạn hoặc cực đoan. > Các mối đe dọa trong thế giới thực tồn tại, và các quyết định về AI sẽ được đánh giá dựa trên thiệt hại mà chúng giúp ngăn chặn hoặc không thể ngăn chặn.
71