Sebagian besar penyedia AI meminta Anda untuk mempercayai data Anda kepada mereka. Kami hanya menghapus diri kami dari persamaan. Hari ini kami mengirimkan enkripsi end-to-end untuk inferensi AI di Chutes. Inilah artinya sebenarnya:
Perintah Anda dienkripsi di komputer Anda, langsung ke instans GPU tertentu yang berjalan di dalam Lingkungan Eksekusi Tepercaya. Teks sandi melewati API dan penyeimbang beban kami, tetapi mereka benar-benar tidak dapat membacanya. Tidak ada yang bisa. Bukan jaringan. Bukan kami. Bukan penambang yang mengoperasikan perangkat keras. Pertukaran kunci menggunakan ML-KEM 768, mekanisme enkapsulasi kunci pasca-kuantum standar NIST, bersama dengan HKDF-SHA256 dan ChaCha20-Poly1305. Instans TEE menerbitkan kunci publik ML-KEM, dan setiap permintaan menggunakan pasangan kunci klien sementara baru untuk kerahasiaan terus. Bahkan jika seseorang menangkap setiap paket hari ini, komputer kuantum masa depan masih tidak dapat mendekripsinya.
Bagian yang penting bagi pembangun: Ada dua cara untuk menggunakan ini, tergantung pada pengaturan Anda. Jika Anda menggunakan OpenAI Python SDK, pip install chutes-e2ee dan teruskan transportasi khusus ke klien Anda. URL dasar Anda dapat tetap sama, dan enkripsi terjadi secara transparan di lapisan HTTP hanya dengan kabel klien minimal.
Jika Anda menggunakan platform klien lain, jalankan kontainer Docker e2ee-proxy kami secara lokal dan arahkan klien Anda ke sana. Ini mendukung API yang kompatibel dengan OpenAI, termasuk spesifikasi API Respons yang lebih baru yang digunakan oleh alat seperti Codex, dan spesifikasi API Pesan Anthropic untuk klien bergaya Claude. Proxy menangani terjemahan format, pertukaran kunci, enkripsi, dan dekripsi streaming untuk Anda. Keduanya mendukung streaming. Keduanya mempertahankan semantik penagihan berbasis token normal. Keduanya open source di bawah lisensi MIT.
1,9K