A maioria dos provedores de IA pede que você confie neles com seus dados. Simplesmente nos retiramos da equação. Hoje estamos lançando criptografia de ponta a ponta para inferência de IA no Chutes. Veja o que isso realmente significa:
Seus prompts são criptografados na sua máquina, diretamente para a instância específica da GPU que roda dentro de um Ambiente de Execução Confiável. O texto cifrado passa pela nossa API e balanceadores de carga, mas eles literalmente não conseguem ler. Ninguém pode. Não a rede. Não nós. Não os mineradores que operam o hardware. A troca de chaves utiliza o ML-KEM 768, um mecanismo padronizado pelo NIST de encapsulamento pós-quântico de chaves, juntamente com HKDF-SHA256 e ChaCha20-Poly1305. Instâncias TEE publicam uma chave pública ML-KEM, e cada requisição usa um par de chaves cliente efêmero novo para sigilo futuro. Mesmo que alguém capturasse todos os pacotes hoje, os futuros computadores quânticos ainda não conseguiriam descriptografá-los.
A parte que importa para os construtores: Existem duas formas de usar isso, dependendo da sua configuração. Se você estiver usando o SDK Python da OpenAI, instale o pip chutes-e2ee e passe o transporte personalizado para o seu cliente. Sua URL base pode permanecer a mesma, e a criptografia ocorre de forma transparente na camada HTTP com apenas uma fiação mínima do cliente.
Se você estiver usando qualquer outra plataforma cliente, execute nosso container Docker e2ee-proxy localmente e aponte seu cliente para ela. Ele suporta tanto APIs compatíveis com OpenAI, incluindo a especificação mais recente da API Responses usada por ferramentas como a Codex, quanto a especificação Messages API da Anthropic para clientes no estilo Claude. O proxy cuida da tradução de formatos, troca de chaves, criptografia e descriptografia de streaming para você. Ambos suportam streaming. Ambos preservam a semântica normal de faturamento baseada em tokens. Ambos são open source sob a licença do MIT.
1,83K