Tether 正在建立一個運行在您自己硬體上的 AI 平台。 QVAC 提供了一個模組化的 SDK,讓開發者可以為幾乎任何設備構建 AI 微模組。這些模組通過點對點加密網絡連接和協作,無需集中式伺服器、API 金鑰或守門人。 QVAC Fabric 剛剛新增對微軟的 BitNet 架構的支持,以便在消費者設備上直接進行 LoRA 微調和 1 位大型語言模型的推理。以前需要專用的 NVIDIA GPU 和昂貴的伺服器基礎設施的工作,現在可以在日常設備上運行。 Tether 的基準測試顯示,使用 BitNet 模型的 VRAM 消耗比可比的 16 位模型少高達 77.8%,在移動設備上,GPU 推理速度比 CPU 快 2 倍到 11 倍。Fabric 已經作為開源發布。 今天的 AI 開發依賴於與加密貨幣設計要擺脫的相同類型的集中基礎設施。訓練和微調模型仍然依賴於 NVIDIA 硬體和雲服務提供商,這使得控制集中在少數幾家公司手中。 Fabric 旨在通過使消費者硬體成為真正模型開發的可行平台來改變這一點。 Tether 正在 QVAC 上構建幾個應用程序。Translate 處理文本、音頻和圖像的離線轉錄和翻譯。Health 使用設備上的 AI 代理本地跟踪健康數據。Keet 正在整合 QVAC AI,以啟用設備上的對話功能。 Tether 對 QVAC 的開發表明,去中心化的 AI 正在成為他們的一個重要優先事項。