威尼斯刚刚推出了端到端加密的AI推理。 今天每个主要的AI平台都基于相同的基本信任假设。你必须信任提供者负责地处理你的数据。 @AskVenice的架构略有不同。对话存储在你的设备上,提示不会在服务器端持久化。当你使用前沿模型时,威尼斯会代理请求,因此提供者永远不会收到你的身份数据。然而,这里仍然适用相同的信任假设。如果威尼斯或合作伙伴想要拦截数据,架构中没有任何东西可以阻止它。 新发布引入了两种硬件强制隐私模式。 TEE在由NEAR AI Cloud和Phala Network操作的安全硬件保护区内运行推理,将计算与主机操作系统和基础设施运营商隔离。远程证明将加密证书与物理硬件绑定,因此任何人都可以独立验证模型是否在真实的保护区内运行。你不再需要信任GPU运营商,但你仍然在信任威尼斯的传输层。 E2EE消除了剩余的信任假设。提示在传输前在设备上加密,通过威尼斯的基础设施保持加密,并仅在经过验证的保护区内解密。威尼斯在正常操作期间无法看到你的数据。权衡是响应可能会更慢,网络搜索和内存被禁用,因为它们需要在保护区外解密。 这两种模式目前通过NEAR AI Cloud和Phala Network在少数开源模型上运行,并且仅限于Pro订阅用户。 这些保证在实践中有多强大取决于证明实施以及独立审计是否确认这些声明。