A maioria dos fornecedores de IA pede que você confie neles com seus dados. Nós apenas nos removemos da equação. Hoje estamos lançando criptografia de ponta a ponta para inferência de IA no Chutes. Aqui está o que isso realmente significa:
Os seus prompts são encriptados na sua máquina, diretamente para a instância específica da GPU que está a correr dentro de um Ambiente de Execução Confiável. O texto cifrado passa pela nossa API e pelos balanceadores de carga, mas eles literalmente não conseguem lê-lo. Ninguém consegue. Nem a rede. Nem nós. Nem os mineradores que operam o hardware. A troca de chaves utiliza o ML-KEM 768, um mecanismo de encapsulação de chaves pós-quânticas padronizado pelo NIST, juntamente com o HKDF-SHA256 e o ChaCha20-Poly1305. As instâncias TEE publicam uma chave pública ML-KEM, e cada pedido utiliza um novo par de chaves efémeras do cliente para garantir a confidencialidade futura. Mesmo que alguém capturasse todos os pacotes hoje, computadores quânticos futuros ainda não conseguiriam decifrá-los.
A parte que importa para os construtores: Existem duas maneiras de usar isto, dependendo da sua configuração. Se estiver a usar o OpenAI Python SDK, instale o chutes-e2ee com o pip e passe o transporte personalizado para o seu cliente. A sua URL base pode permanecer a mesma, e a encriptação acontece de forma transparente na camada HTTP com apenas uma fiação mínima do cliente.
Se estiver a usar qualquer outra plataforma de cliente, execute o nosso contêiner Docker e2ee-proxy localmente e aponte o seu cliente para ele. Suporta ambas as APIs compatíveis com OpenAI, incluindo a nova especificação da API Responses usada por ferramentas como o Codex, e a especificação da API Messages da Anthropic para clientes estilo Claude. O proxy trata da tradução de formato, troca de chaves, criptografia e descriptografia em streaming para si. Ambos suportam streaming. Ambos preservam a semântica normal de faturamento baseada em tokens. Ambos são de código aberto sob a licença MIT.
1,89K