每个人都在竞相构建更好的模型。 更大。更快。更智能。 但模型建立在一些脆弱的基础上: 巨大的、长期的计算承诺。 @DarioAmodei 清楚地解释了这一点: 如果你承诺购买价值 5 万亿美元的计算资源, 因为你预计会有 1 万亿美元的收入年化率…… 而你最终只达到 8000 亿美元,那你不会“放慢速度”。你会破产。 这就是不对称性。 计算是提前承诺的。收入是概率性的。 这个差距才是真正的瓶颈。 这不是关于 GPU 的问题。 而是关于资产负债表的风险。 这正是像 @OpenAI、@AnthropicAI 等公司正在应对的结构性风险。 而这正是 @primisprotocol 正在抽象的层次。 将计算消耗与价格和资本风险分开。 这样构建者就可以基于需求曲线扩展,而不是基于债务曲线。...