Stiamo collaborando con @cysic_xyz Insieme, stiamo accelerando le prove a conoscenza zero che verificano l'esecuzione del modello su OpenGradient. Questo è un grande passo verso la preparazione della produzione di inferenze AI verificabili. 1/7
L'AI senza fiducia funziona solo se puoi dimostrare cosa è successo durante l'inferenza. Non solo "fidati di noi, il modello è stato eseguito correttamente", ma una vera prova crittografica, on-chain, che un modello specifico ha prodotto un output specifico. 2/7
Questo è ciò che ti offre zkML. Ma generare quelle prove su larga scala è costoso e lento. Man mano che i modelli diventano più grandi, anche il costo computazionale per dimostrarli aumenta. Quello stallo è ciò che ha trattenuto l'AI verificabile.
Cysic è progettato appositamente per risolvere questo problema. Il loro hardware e la rete decentralizzata di prover sono stati progettati fin dall'inizio per la generazione di prove ZK, non per il calcolo generale riadattato a questo scopo. 4/7
Integrando l'infrastruttura di prova di Cysic, OpenGradient può generare prove zkML più velocemente e a un costo inferiore. Stessa assenza di fiducia. Stesse garanzie di verifica. Solo senza il limite di prestazioni. 5/7
Questo è ciò di cui lo stack AI verificabile ha realmente bisogno per scalare. Non solo modelli migliori. Non solo catene migliori. Il livello di prova deve tenere il passo, e ora può farlo. 6/7
Ulteriori aggiornamenti man mano che approfondiamo questa integrazione. Leggi di più: 7/7
65