熱門話題
#
Bonk 生態迷因幣展現強韌勢頭
#
有消息稱 Pump.fun 計劃 40 億估值發幣,引發市場猜測
#
Solana 新代幣發射平臺 Boop.Fun 風頭正勁

Andrej Karpathy
建築@EurekaLabsAI。曾任 AI 總監 @ 特斯拉,創始團隊 @ OpenAI,CS231n/PhD @ 史丹佛大學。我喜歡訓練大型深層神經網路。
隨著對代幣需求的來臨海嘯,為 LLMs 精心協調底層的記憶體+計算提供了重要的機會。
根本且不明顯的限制是,由於晶片製造過程,你會得到兩個完全不同的記憶體池(物理實現也不同):1)緊鄰計算單元的片上 SRAM,速度極快但容量非常低;2)片外 DRAM,容量極高,但其內容只能通過長吸管來提取。除此之外,架構的許多細節(例如,脈衝陣列)、數值等也很重要。
設計最佳的物理基底,然後在 LLMs 的頂部工作流程(推理預填/解碼、訓練/微調等)中協調記憶體+計算,以獲得最佳的吞吐量/延遲/$,可能是當今最有趣的智力難題,並且回報最高(\cite 4.6T 的 NVDA)。所有這一切都是為了快速且便宜地獲得許多代幣。可以說,最重要的工作流程(推理解碼 *和* 在緊密的代理循環中處理長代幣上下文)是最難以同時實現的,~兩個現有陣營(HBM優先的 NVIDIA 附近和 SRAM優先的 Cerebras 附近)。無論如何,MatX 團隊的表現非常優秀,因此我很高興能有小小的參與,並祝賀你們的融資成功!

Reiner Pope2月25日 01:41
我們正在打造一款 LLM 晶片,提供比任何其他晶片更高的吞吐量,同時實現最低的延遲。我們稱之為 MatX One。
MatX One 晶片基於可分割的脈衝陣列,擁有大型脈衝陣列所著名的能量和面積效率,同時在具有靈活形狀的小型矩陣上也能實現高利用率。該晶片結合了 SRAM 首先設計的低延遲和 HBM 的長上下文支持。這些元素,加上對數字的全新看法,提供了比任何已宣布的系統更高的 LLM 吞吐量,同時匹配 SRAM 首先設計的延遲。更高的吞吐量和更低的延遲為您的訂閱費用提供了更智能、更快速的模型。
我們已經籌集了 5 億美元的 B 輪融資,以完成開發並迅速擴大生產,預計在一年內完成晶片流片。這輪融資由 Jane Street 領投,這是一家最具科技敏感度的華爾街公司,還有 Situational Awareness LP,其創始人 @leopoldasch 撰寫了關於 AGI 的權威備忘錄。參與者包括 @sparkcapital、@danielgross 和 @natfriedman 的基金、@patrickc 和 @collision、@TriatomicCap、@HarpoonVentures、@karpathy、@dwarkesh_sp 等。我們也歡迎來自供應鏈的投資者,包括 Marvell 和 Alchip。
@MikeGunter_ 和我創立 MatX,因為我們認為最適合 LLM 的晶片應該從基本原則出發,深入了解 LLM 的需求及其演變。我們願意放棄小型模型性能、低容量工作負載,甚至編程的便利性,以實現這樣的晶片。
我們現在是一支 100 人的團隊,成員們思考的範疇從學習率計劃、Swing Modulo Scheduling、保護/圓形/粘性位元到盲配連接,所有人都在同一棟大樓內。如果您想幫助我們架構、設計和部署多代晶片的大規模生產,考慮加入我們。
101
CLI(命令行介面)之所以令人興奮,正是因為它們是一種「傳統」技術,這意味著 AI 代理可以原生且輕鬆地使用它們,將它們結合起來,通過整個終端工具包與它們互動。
例如,請你的 Claude/Codex 代理安裝這個新的 Polymarket CLI,並要求任何任意的儀表板、介面或邏輯。代理將為你構建它。也安裝 Github CLI,然後你可以請他們導航倉庫,查看問題、PR、討論,甚至是代碼本身。
示例:Claude 在大約 3 分鐘內構建了這個終端儀表板,顯示最高交易量的 polymarkets 和 24 小時變化。或者你可以將其製作成網頁應用或任何你想要的東西。當你將其用作更大管道的模組時,功能更強大。
如果你有任何產品或服務,想想:代理能否訪問並使用它們?
- 你的傳統文檔(供人類使用)至少可以以 markdown 格式導出嗎?
- 你為你的產品編寫了技能嗎?
- 你的產品/服務能否通過 CLI 使用?或者 MCP?
- ...
現在是 2026 年。為代理構建。


Suhail Kakar2月24日 22:36
介紹 Polymarket CLI - AI 代理訪問預測市場的最快方式
使用 Rust 構建。您的代理可以從終端查詢市場、下單和提取數據
快速、輕量級,無額外開銷
43
對於即將到來的高度定制軟體時代,我非常感興趣。
今天早上的例子 - 最近我的有氧運動有點鬆散,所以我決定進行一個更嚴謹的實驗,試圖在8週的實驗期間內將我的靜息心率從50降低到45。主要的方法是追求在區域2有氧運動中達到一定的總分鐘目標,以及每週1次的高強度間歇訓練。
1小時後,我為這個非常特定的實驗編寫了這個超自定義的儀表板,顯示我如何跟蹤進度。Claude不得不逆向工程Woodway跑步機的雲API,以提取原始數據,進行處理、過濾、除錯,並創建一個網頁UI前端來跟蹤實驗。這不是一個完全順利的體驗,我不得不注意並要求修復錯誤,例如它搞錯了公制與英制單位,還有日曆匹配日期等問題。
但我仍然覺得整體方向是明確的:
1) 對於這種事情,應該不會(也不應該)在應用商店中有一個特定的應用。我不應該需要尋找、下載和使用某種“有氧運動實驗追蹤器”,當這個東西大約300行代碼,LLM代理幾秒鐘就能給你。當LLM代理可以即時為你即興創建應用時,選擇一組離散應用的“應用商店”概念感覺有些錯誤和過時。
2) 其次,行業必須重新配置為一組具有代理原生人體工學的傳感器和執行器服務。我的Woodway跑步機是一個傳感器 - 它將物理狀態轉化為數字知識。它不應該維持某種人類可讀的前端,我的LLM代理不應該需要逆向工程它,它應該是一個API/CLI,讓我的代理輕鬆使用。我對整個行業進展緩慢感到有點失望(我的時間表相應地變慢)。99%的產品/服務仍然沒有AI原生CLI。99%的產品/服務維持.html/.css文檔,就好像我不會立即尋找如何將整個東西複製粘貼到我的代理以完成某件事。他們在網頁上給你一系列指示,讓你打開這個或那個網址,然後點擊這裡或那裡來做某件事。在2026年。難道我是一台電腦?你來做。或者讓我的代理來做。
所以今天我對這個隨機的東西花了1小時感到印象深刻(兩年前大約需要10小時)。但更讓我興奮的是思考這本來應該最多只需1分鐘。需要什麼才能讓它變成1分鐘?這樣我可以簡單地說“嗨,你能幫我在接下來的8週內跟蹤我的有氧運動嗎”,在非常簡短的問答後,應用就會啟動。AI已經擁有很多個人背景,它會收集額外所需的數據,參考和搜索相關的技能庫,並維護我所有的小應用/自動化。
總之,選擇一組離散應用的“應用商店”本身是一個越來越過時的概念。未來是由AI原生傳感器和執行器組成的服務,通過LLM粘合劑協調成高度定制的短暫應用。這只是還沒有到來。

216
熱門
排行
收藏
