Die meisten AI-Anbieter bitten Sie, ihnen Ihr Vertrauen in Bezug auf Ihre Daten zu schenken. Wir haben uns einfach aus der Gleichung entfernt. Heute liefern wir End-to-End-Verschlüsselung für die AI-Inferenz auf Chutes. Hier ist, was das tatsächlich bedeutet:
Ihre Eingaben werden auf Ihrem Gerät verschlüsselt, direkt an die spezifische GPU-Instanz, die in einer Trusted Execution Environment läuft. Der Chiffretext passiert unsere API und Lastenausgleicher, aber sie können ihn buchstäblich nicht lesen. Niemand kann. Weder das Netzwerk. Noch wir. Noch die Miner, die die Hardware betreiben. Der Schlüsselaustausch verwendet ML-KEM 768, einen NIST-standardisierten post-quantum Schlüssel-Kapselungsmechanismus, zusammen mit HKDF-SHA256 und ChaCha20-Poly1305. TEE-Instanzen veröffentlichen einen ML-KEM-öffentlichen Schlüssel, und jede Anfrage verwendet ein frisches ephemeres Client-Schlüsselpaar für Vorwärtsgeheimnis. Selbst wenn jemand heute jedes Paket abfängt, könnten zukünftige Quantencomputer sie immer noch nicht entschlüsseln.
Der Teil, der für Entwickler wichtig ist: Es gibt zwei Möglichkeiten, dies zu nutzen, abhängig von Ihrer Konfiguration. Wenn Sie das OpenAI Python SDK verwenden, installieren Sie mit pip chutes-e2ee und übergeben Sie den benutzerdefinierten Transport an Ihren Client. Ihre Basis-URL kann gleich bleiben, und die Verschlüsselung erfolgt transparent auf der HTTP-Ebene mit nur minimalem Aufwand auf der Client-Seite.
Wenn Sie eine andere Client-Plattform verwenden, führen Sie unseren e2ee-proxy Docker-Container lokal aus und richten Sie Ihren Client darauf aus. Er unterstützt sowohl OpenAI-kompatible APIs, einschließlich der neueren Responses API-Spezifikation, die von Tools wie Codex verwendet wird, als auch die Messages API-Spezifikation von Anthropic für Claude-ähnliche Clients. Der Proxy übernimmt die Formatübersetzung, den Schlüsselaustausch, die Verschlüsselung und das Streaming-Entschlüsseln für Sie. Beide unterstützen Streaming. Beide bewahren die normalen tokenbasierten Abrechnungssemantiken. Beide sind Open Source unter der MIT-Lizenz.
1,89K