Venice acabou de lançar inferência de IA criptografada de ponta a ponta. Hoje, todas as grandes plataformas de IA funcionam com a mesma suposição básica de confiança. Você precisa confiar que o provedor vai lidar com seus dados de forma responsável. @AskVenice operou com uma arquitetura um pouco diferente. As conversas são armazenadas localmente no seu dispositivo e os prompts não são persistidos do lado do servidor. Quando você usa modelos Frontier, a Venice faz proxies para que o provedor nunca receba seus dados de identidade. No entanto, as mesmas suposições de confiança ainda se aplicam aqui. Se Venice ou um parceiro quisesse interceptar dados, nada na arquitetura impediria isso. O novo lançamento introduz dois modos de privacidade impostos por hardware. O TEE executa inferência dentro de enclaves de hardware seguros operados pela NEAR AI Cloud e Phala Network, isolando a computação do sistema operacional host e do operador da infraestrutura. A atestação remota vincula um certificado criptográfico ao hardware físico para que qualquer pessoa possa verificar de forma independente que o modelo está rodando dentro de um enclave genuíno. Você não precisa mais confiar no operador da GPU, mas ainda confia na camada de trânsito de Venice. E2EE remove essa suposição de confiança remanescente. Os prompts são criptografados no dispositivo antes da transmissão, permanecem criptografados pela infraestrutura de Venice e só são descriptografados dentro do enclave verificado. A Venice não consegue ver seus dados em nenhum momento durante a operação normal. A desvantagem é que as respostas podem ser mais lentas, a busca na web e a memória são desativadas, pois exigiriam descriptografia fora do enclave. Ambos os modos atualmente rodam em alguns modelos open source através do NEAR AI Cloud e Phala Network e são exclusivos para assinantes Pro. A robustez dessas garantias na prática depende da implementação da atestação e se auditorias independentes confirmam as alegações.