Большинство поставщиков AI просят вас доверять им ваши данные. Мы просто исключили себя из уравнения. Сегодня мы запускаем сквозное шифрование для AI-инференса на Chutes. Вот что это на самом деле означает:
Ваши запросы шифруются на вашем устройстве, непосредственно на конкретном экземпляре GPU, работающем внутри защищенной среды выполнения (Trusted Execution Environment). Шифротекст проходит через наш API и балансировщики нагрузки, но они буквально не могут его прочитать. Никто не может. Ни сеть. Ни мы. Ни майнеры, управляющие оборудованием. Обмен ключами использует ML-KEM 768, стандартизированный NIST механизм инкапсуляции ключей постквантовой криптографии, вместе с HKDF-SHA256 и ChaCha20-Poly1305. Экземпляры TEE публикуют открытый ключ ML-KEM, и каждый запрос использует свежую временную пару ключей клиента для обеспечения секретности в будущем. Даже если кто-то перехватит каждый пакет сегодня, будущие квантовые компьютеры все равно не смогут их расшифровать.
Часть, которая важна для разработчиков: Существует два способа использовать это, в зависимости от вашей конфигурации. Если вы используете OpenAI Python SDK, выполните команду pip install chutes-e2ee и передайте пользовательский транспорт в ваш клиент. Ваш базовый URL может остаться прежним, а шифрование происходит прозрачно на уровне HTTP с минимальной настройкой клиента.
Если вы используете любую другую клиентскую платформу, запустите наш e2ee-proxy Docker-контейнер локально и укажите вашему клиенту на него. Он поддерживает оба API, совместимые с OpenAI, включая новую спецификацию Responses API, используемую такими инструментами, как Codex, и спецификацию Messages API от Anthropic для клиентов в стиле Claude. Прокси обрабатывает перевод форматов, обмен ключами, шифрование и потоковую расшифровку для вас. Оба поддерживают потоковую передачу. Оба сохраняют обычную семантику биллинга на основе токенов. Оба являются открытым исходным кодом под лицензией MIT.
1,86K