Venice har nettopp levert ende-til-ende-kryptert AI-inferens. Alle store AI-plattformer i dag kjører på samme grunnleggende tillitsantakelse. Du må stole på at leverandøren håndterer dataene dine ansvarlig. @AskVenice har operert med en litt annerledes arkitektur. Samtaler lagres lokalt på enheten din, og promptene lagres ikke server-side. Når du bruker Frontier-modeller, proxyer Venice forespørselen slik at leverandøren aldri mottar identitetsdataene dine. Likevel gjelder de samme tillitsantakelsene fortsatt her. Hvis Venice eller en partner ønsket å avskjære data, ville ingenting i arkitekturen hindre det. Den nye lanseringen introduserer to maskinvarehåndhevede personvernmoduser. TEE kjører inferenser inne i sikre maskinvare-enklaver drevet av NEAR AI Cloud og Phala Network, og isolerer beregningen fra vertsoperativsystemet og infrastrukturoperatøren. Fjernattestering knytter et kryptografisk sertifikat til den fysiske maskinvaren slik at hvem som helst uavhengig kan verifisere at modellen kjører inne i en ekte enklave. Du trenger ikke lenger å stole på GPU-operatøren, men du stoler fortsatt på Venices transportlag. E2EE fjerner den gjenværende tillidsantakelsen. Prompts krypteres på enheten før overføring, forblir kryptert gjennom Venices infrastruktur, og dekrypteres kun inne i den verifiserte enklaven. Venezia kan ikke se dataene dine på noe tidspunkt under normal drift. Ulempen er at svarene kan være tregere, nettsøk og minne er deaktivert siden de ville kreve dekryptering utenfor enklaven. Begge modusene kjører for øyeblikket på noen få åpne kildekode-modeller gjennom NEAR AI Cloud og Phala Network, og er eksklusive for Pro-abonnenter. Hvor robuste disse garantiene er i praksis, avhenger av attestasjonsimplementeringen og om uavhengige revisjoner bekrefter påstandene.