Chủ đề thịnh hành
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Andrej Karpathy
Xây dựng @EurekaLabsAI. Trước đây là Giám đốc AI @ Tesla, nhóm sáng lập @ OpenAI, CS231n / PhD @ Stanford. Tôi thích đào tạo các mạng nơ-ron sâu lớn.
Rất quan tâm đến việc kỷ nguyên phần mềm tùy chỉnh cao sắp tới sẽ như thế nào.
Ví dụ từ sáng nay - Gần đây tôi đã trở nên hơi lỏng lẻo với việc tập cardio, vì vậy tôi quyết định thực hiện một thí nghiệm nghiêm túc hơn, có quy trình để cố gắng giảm Nhịp Tim Nghỉ Ngơi của mình từ 50 -> 45, trong thời gian thí nghiệm 8 tuần. Cách chính để làm điều này là hướng tới một mục tiêu tổng số phút nhất định trong cardio Zone 2 và 1 HIIT/tuần.
1 giờ sau, tôi đã tạo ra một bảng điều khiển siêu tùy chỉnh cho thí nghiệm rất cụ thể này cho tôi thấy tôi đang theo dõi như thế nào. Claude đã phải đảo ngược kỹ thuật API đám mây của máy chạy bộ Woodway để lấy dữ liệu thô, xử lý, lọc, gỡ lỗi và tạo một giao diện web UI để theo dõi thí nghiệm. Đó không phải là một trải nghiệm hoàn toàn suôn sẻ và tôi đã phải nhận ra và yêu cầu sửa lỗi ví dụ như nó đã làm sai đơn vị hệ mét so với hệ thống đế và nó đã làm sai trong việc khớp lịch ngày với ngày tháng v.v.
Nhưng tôi vẫn cảm thấy rằng hướng đi tổng thể là rõ ràng:
1) Sẽ không bao giờ có (và không nên có) một ứng dụng cụ thể nào trên cửa hàng ứng dụng cho loại điều này. Tôi không nên phải tìm kiếm, tải xuống và sử dụng một loại "trình theo dõi thí nghiệm cardio", khi điều này chỉ là ~300 dòng mã mà một tác nhân LLM sẽ cung cấp cho bạn trong vài giây. Ý tưởng về một "cửa hàng ứng dụng" với một tập hợp dài các ứng dụng riêng biệt mà bạn chọn từ đó cảm thấy như là sai và lỗi thời khi các tác nhân LLM có thể ứng biến ứng dụng ngay tại chỗ và chỉ dành cho bạn.
2) Thứ hai, ngành công nghiệp phải tái cấu trúc thành một tập hợp các dịch vụ cảm biến và bộ điều khiển với ergonomics bản địa của tác nhân. Máy chạy bộ Woodway của tôi là một cảm biến - nó biến trạng thái vật lý thành kiến thức số. Nó không nên duy trì một giao diện dễ đọc cho con người và tác nhân LLM của tôi không nên phải đảo ngược kỹ thuật nó, nó nên là một API/CLI dễ sử dụng bởi tác nhân của tôi. Tôi hơi thất vọng (và thời gian của tôi cũng chậm lại tương ứng) với việc sự tiến triển này đang diễn ra chậm chạp trong ngành công nghiệp nói chung. 99% sản phẩm/dịch vụ vẫn chưa có CLI bản địa AI. 99% sản phẩm/dịch vụ duy trì tài liệu .html/.css như thể tôi sẽ không ngay lập tức tìm cách sao chép toàn bộ để đưa cho tác nhân của tôi để hoàn thành một việc gì đó. Họ đưa cho bạn một danh sách hướng dẫn trên một trang web để mở URL này hoặc URL kia và nhấp vào đây hoặc đó để làm một việc. Vào năm 2026. Tôi là một máy tính sao? Bạn làm đi. Hoặc để tác nhân của tôi làm điều đó.
Vì vậy, hôm nay tôi ấn tượng rằng điều ngẫu nhiên này mất 1 giờ (nó sẽ mất khoảng ~10 giờ 2 năm trước). Nhưng điều làm tôi phấn khích hơn là suy nghĩ về việc điều này thực sự nên chỉ mất 1 phút. Cần có điều gì để điều đó xảy ra trong 1 phút? Để tôi có thể đơn giản nói "Chào, bạn có thể giúp tôi theo dõi cardio của tôi trong 8 tuần tới không", và sau một cuộc hỏi đáp rất ngắn, ứng dụng sẽ được thiết lập. AI sẽ đã có nhiều bối cảnh cá nhân, nó sẽ thu thập dữ liệu cần thiết bổ sung, nó sẽ tham khảo và tìm kiếm các thư viện kỹ năng liên quan, và duy trì tất cả các ứng dụng/tự động hóa nhỏ của tôi.
Tóm lại, "cửa hàng ứng dụng" của một tập hợp các ứng dụng riêng biệt mà bạn chọn từ đó là một khái niệm ngày càng lỗi thời tự nó. Tương lai là các dịch vụ cảm biến & bộ điều khiển bản địa AI được phối hợp qua LLM thành các ứng dụng tùy chỉnh cao, tạm thời. Nó chỉ chưa đến đây.

109
Tôi nghĩ đây phải là một thời điểm rất thú vị để tham gia vào các ngôn ngữ lập trình và phương pháp chính thức vì LLMs thay đổi hoàn toàn bối cảnh ràng buộc của phần mềm. Những dấu hiệu của điều này đã có thể thấy, ví dụ như trong động lực ngày càng tăng đằng sau việc chuyển đổi C sang Rust hoặc sự quan tâm ngày càng lớn trong việc nâng cấp các mã nguồn cũ bằng COBOL hoặc v.v. Cụ thể, LLMs *đặc biệt* giỏi trong việc dịch so với việc tạo ra từ đầu vì 1) mã nguồn gốc hoạt động như một loại gợi ý rất chi tiết, và 2) như một tài liệu tham khảo để viết các bài kiểm tra cụ thể. Nói vậy, ngay cả Rust cũng không gần như tối ưu cho LLMs như một ngôn ngữ mục tiêu. Loại ngôn ngữ nào là tối ưu? Những nhượng bộ (nếu có) nào vẫn được dành cho con người? Những câu hỏi và cơ hội mới vô cùng thú vị. Có vẻ như chúng ta sẽ phải viết lại một phần lớn của tất cả phần mềm từng được viết nhiều lần.
107
Chúc mừng về việc ra mắt @simile_ai ! (và tôi rất hào hứng khi được tham gia như một thiên thần nhỏ.)
Simile đang làm việc trên một khía cạnh rất thú vị, theo ý kiến của tôi là chưa được khám phá nhiều về LLMs. Thông thường, các LLM mà bạn trò chuyện có một tính cách cụ thể, được chế tác. Nhưng về nguyên tắc, hình thức nguyên thủy, bản địa của một LLM đã được huấn luyện trước là nó là một động cơ mô phỏng được đào tạo trên văn bản của một dân số rất đa dạng của những người trên internet. Tại sao không tận dụng sức mạnh thống kê đó: Tại sao mô phỏng một "người" khi bạn có thể cố gắng mô phỏng một dân số? Làm thế nào để bạn xây dựng một bộ mô phỏng như vậy? Làm thế nào để bạn quản lý độ hỗn loạn của nó? Nó trung thành đến mức nào? Nó có thể hữu ích như thế nào? Những thuộc tính nổi bật nào có thể phát sinh từ các phép so sánh trong vòng lặp?
Theo ý kiến của tôi, đây là những chủ đề rất thú vị, đầy hứa hẹn và chưa được khám phá nhiều, và đội ngũ ở đây thật tuyệt vời. Chúc mọi điều tốt đẹp nhất!

Joon Sung Park03:00 13 thg 2
Giới thiệu Simile.
Mô phỏng hành vi con người là một trong những vấn đề quan trọng và khó khăn về mặt kỹ thuật nhất của thời đại chúng ta.
Chúng tôi đã huy động được 100 triệu đô la từ Index, Hanabi, A* BCV, @karpathy @drfeifei @adamdangelo @rauchg @scottbelsky và nhiều người khác.
98
Hàng đầu
Thứ hạng
Yêu thích
