Większość dostawców AI prosi, aby im zaufać w kwestii twoich danych. My po prostu usunęliśmy się z równania. Dziś wprowadzamy szyfrowanie end-to-end dla wnioskowania AI na Chutes. Oto, co to naprawdę oznacza:
Twoje zapytania są szyfrowane na twoim urządzeniu, bezpośrednio do konkretnej instancji GPU działającej w Zaufanym Środowisku Wykonawczym. Szyfrogram przechodzi przez nasze API i load balancery, ale dosłownie nie mogą go odczytać. Nikt nie może. Ani sieć. Ani my. Ani górnicy obsługujący sprzęt. Wymiana kluczy wykorzystuje ML-KEM 768, znormalizowany przez NIST mechanizm kapsułkowania kluczy post-kwantowych, razem z HKDF-SHA256 i ChaCha20-Poly1305. Instancje TEE publikują publiczny klucz ML-KEM, a każde żądanie używa świeżej ephemerycznej pary kluczy klienta dla tajności w przyszłości. Nawet jeśli ktoś przechwyciłby każdy pakiet dzisiaj, przyszłe komputery kwantowe nadal nie mogłyby ich odszyfrować.
Część, która ma znaczenie dla twórców: Istnieją dwa sposoby, aby to wykorzystać, w zależności od twojej konfiguracji. Jeśli używasz OpenAI Python SDK, zainstaluj pip chutes-e2ee i przekaż niestandardowy transport do swojego klienta. Twój podstawowy adres URL może pozostać taki sam, a szyfrowanie odbywa się przezroczysto na warstwie HTTP z minimalnym okablowaniem po stronie klienta.
Jeśli używasz innej platformy klienckiej, uruchom nasz lokalny kontener Docker e2ee-proxy i skieruj swój klient na niego. Obsługuje zarówno API zgodne z OpenAI, w tym nowszą specyfikację API Responses używaną przez narzędzia takie jak Codex, jak i specyfikację API Messages Anthropic dla klientów w stylu Claude. Proxy zajmuje się tłumaczeniem formatu, wymianą kluczy, szyfrowaniem i strumieniowym odszyfrowywaniem za Ciebie. Oba wspierają strumieniowanie. Oba zachowują normalną semantykę rozliczeń opartą na tokenach. Oba są open source na licencji MIT.
1,89K