erbjuder fullstack-integritet över frågor, data, betalningar och enheter/hårdvara 1. De bästa open source-modellerna (t.ex. Kimi K2.5) tjänstgjorde i säkra enklaver (TEEs) 2. De bästa slutna modellerna (t.ex. GPT-5.2 Pro) med frågor samlade i proxyservrar och PII anonymiserad med en specialiserad silomodell 3. Den enda tillgängliga implementeringen av privat djup forskning för säker resonemang 4. Helt privata kryptobetalningar via Zcash eller rabatterade betalningar med FAI 5. En hårdvara som erbjuder att köra allt on-prem från ditt eget hem med 288 GB GPU RAM (Silo Box) Allt med krypterad synkronisering mellan enheter så att användare kan få tillgång till sina AI-sessioner på ett enhetligt + privat sätt
1/ Alla öppen källkodsmodeller hostas och levereras i privat konfidentiell beräkning, säkrad via TEE:er. Inga API-anrop. Ingen kan se dina data, inte ens Silo.
2/ Självklart är de flesta ledande modeller stängda och kräver API-anrop för att få åtkomst. Det är viktigt att användare fortfarande har tillgång till dessa. Vi erbjuder ett VPN-liknande system för att samla frågor via proxyservrar För att driva detta vidare har vi en anonymiseringsmodell av sitt slag som selektivt döljer personligt identifierbar information (PII) för användare innan frågor skickas in –
3/ Djupt resonemang är ett viktigt nytt verktyg som bör ha ett privat alternativ. Vi har den första + endast implementeringen av Private Deep Research på Silo där trådar av frågor körs via en serie säkra enklaver och endast krypterade meddelanden skickas utanför enklaverna.
4/ Vad är integriteten värd när Apple Pay eller Stripe vet exakt vem du är? Integritet på kontonivå är ytterligare fastställd med verkligt privata betalningar. Användare har tre val: a/ Enkel betalning via Apple / Stripe b/ Privat betalning via Zcash c/ Rabatterad betalning via FAI
5/ Vissa användare vill gå helt molnlöst och vi erbjuder detta via On-prem möjliggör snabbare hastigheter, privat datalagring och mer flexibilitet Med 288 GB GPU-RAM och 512 GB System-RAM levererar Silo Box tillräckligt med beräkning för nästa generations modeller + arbetsflöden
3,06K