Venetië heeft zojuist end-to-end versleutelde AI-inferentie verzonden. Elke grote AI-platform vandaag de dag draait op dezelfde basisvertrouwensveronderstelling. Je moet de aanbieder vertrouwen om je gegevens verantwoordelijk te behandelen. @AskVenice heeft gewerkt met een iets andere architectuur. Gesprekken worden lokaal op je apparaat opgeslagen en prompts worden niet server-side bewaard. Wanneer je frontier-modellen gebruikt, proxy't Venetië het verzoek zodat de aanbieder je identiteitsgegevens nooit ontvangt. Echter, dezelfde vertrouwensveronderstellingen zijn hier nog steeds van toepassing. Als Venetië of een partner gegevens wilde onderscheppen, zou niets in de architectuur dat kunnen voorkomen. De nieuwe lancering introduceert twee hardware-afgedwongen privacymodi. TEE voert inferentie uit binnen veilige hardware-enclaves die worden beheerd door NEAR AI Cloud en Phala Network, waarbij de berekening wordt geïsoleerd van het host-besturingssysteem en de infrastructuuraanbieder. Remote attestation koppelt een cryptografisch certificaat aan de fysieke hardware, zodat iedereen onafhankelijk kan verifiëren dat het model binnen een echte enclave draait. Je hoeft de GPU-operator niet langer te vertrouwen, maar je vertrouwt nog steeds op de transitlaag van Venetië. E2EE verwijdert die resterende vertrouwensveronderstelling. Prompts worden op het apparaat versleuteld voordat ze worden verzonden, blijven versleuteld door de infrastructuur van Venetië, en worden alleen binnen de geverifieerde enclave ontsleuteld. Venetië kan je gegevens op geen enkel moment tijdens normale werking zien. De trade-off is dat reacties mogelijk langzamer zijn, webzoekopdrachten en geheugen zijn uitgeschakeld omdat ze ontsleuteling buiten de enclave zouden vereisen. Beide modi draaien momenteel op een handvol open source-modellen via NEAR AI Cloud en Phala Network en zijn exclusief voor Pro-abonnees. Hoe robuust deze garanties in de praktijk zijn, hangt af van de implementatie van de attestatie en of onafhankelijke audits de claims bevestigen.