AI-deepfake-deteksjonskappløpet er allerede tapt Hele teknologibransjens respons på deepfakes har vært å bygge bedre detektorer, og jeg tror det er en av de dyreste intellektuelle feilene som skjer akkurat nå innen AI Du kan ikke vinne et løp der motparten alltid går først. Hver gang deteksjonen forbedres, blir genereringen raskere Hvert treningsdatasett for deteksjon var bygget på gårsdagens forfalskninger. Morgendagens forfalskninger er allerede bedre enn det datasettet. Den eneste løsningen er å slutte å oppdage forfalskninger og bevise ekthet ved kilden. det er det @brevis_zk Vera faktisk gjør, for å la ZK-bevis stille komme inn i arbeidsflyten til hundrevis av millioner mennesker som aldri vil vite hva nullkunnskap betyr og ikke trenger å vite det Vera utvider den kryptografiske kjeden GJENNOM redigeringsprosessen i stedet for å behandle redigering som slutten på autentisiteten C2PA lar kameraer kryptografisk signere bilder i øyeblikket for opptaket Vera tetter dette gapet med ZK-bevis på selve redigeringsprosessen Den beviser matematisk: → publiserte versjonen kom fra den signerte originalen → ble kun tillatte redigeringer gjort → ingenting skjult ble introdusert Proveniens følger mediene gjennom hele rørledningen og hvis dette integreres i vanlige redigeringsverktøy, som de allerede forhandler om, når ZK-teknologien hundrevis av millioner mennesker som aldri har hørt om nullkunnskapsbevis Jeg tror dette ikke bare ville vært en kryptohistorie, det er infrastrukturlaget for selve sannheten i AI-æraen