Venice щойно випустила наскрізне зашифроване AI-виведення. Сьогодні всі основні AI-платформи працюють на однаковій базовій довірі. Ви маєте довіряти провайдеру, що він відповідально оброблятиме ваші дані. @AskVenice працювала з дещо іншою архітектурою. Розмови зберігаються локально на вашому пристрої, а запити не зберігаються на серверній стороні. Коли ви використовуєте моделі Frontier, Venice проксі проксі цього запиту, тому провайдер ніколи не отримує ваші дані про ідентифікацію. Однак ті ж припущення щодо трасту тут все ще застосовуються. Якщо Венеція чи партнер хотіли перехопити дані, ніщо в архітектурі не завадило б цьому. Новий запуск вводить два апаратно забезпечені режими конфіденційності. TEE виконує інференцію всередині захищених апаратних анклавів, що керуються NEAR AI Cloud і Phala Network, ізолюючи обчислення від хост-ОС та оператора інфраструктури. Віддалена атестація прив'язує криптографічний сертифікат до фізичного обладнання, щоб будь-хто міг незалежно перевірити, що модель працює в реальному анклаві. Вам більше не потрібно довіряти оператору GPU, але ви все ще довіряєте транзитному шару Venice. E2EE усуває цю залишкову довіру. Підказки шифруються на пристрої перед передачею, залишаються зашифрованими через інфраструктуру Venice і розшифровуються лише всередині перевіреного анклаву. Венеція не може бачити ваші дані в жодному місці під час звичайної роботи. Компроміс полягає в тому, що відповіді можуть бути повільнішими, веб-пошук і пам'ять вимкнені, оскільки їх потрібно розшифровувати поза межами анклаву. Обидва режими наразі працюють на кількох відкритих моделях через NEAR AI Cloud і Phala Network і є ексклюзивними для Pro-підписників. Наскільки надійними є ці гарантії на практиці, залежить від впровадження атестації та того, чи підтверджують незалежні аудити ці твердження.