Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
To uker med Iran-konflikten førte til en tillitskrise som brøt ut i begge retninger samtidig.
En ekte video av Netanyahu som holdt en pressekonferanse ble kalt AI-generert fordi ett stillbilde fikk hånden hans til å se ut som den hadde seks fingre. Deepfake-deteksjonsverktøy ga 0,1 % sannsynlighet for at det var syntetisk. Det spilte ingen rolle. Millioner så påstanden før noen rakk å verifisere.
Samtidig sirkulerte et AI-generert bilde av en «skadet Netanyahu» som ekte bevis. Et fabrikert skjermbilde av en slettet tweet fra hans offisielle konto gikk viralt som bevis på at han var død. Begge er falske. Begge ble behandlet som ekte.
Og det gikk begge veier. Et autentisk bilde tatt av en ekte fotojournalist som viser folkemengder i Teheran, ble flagget som AI-generert. Ekte innhold kalt falskt. Falskt innhold kalt ekte. Samme nyhetssyklus.
BBC Verify fulgte 300+ AI-genererte krigsvideoer med titalls millioner visninger. AI-fabrikkerte satellittbilder av en «ødelagt» amerikansk base ble lagt ut av en statlig tilknyttet kilde. Monetiserte X-kontoer ble bokstavelig talt betalt gjennom skaperprogrammet for å spre syntetiske forfalskninger.
Noen av AI-verktøyene som laget dette innholdet, inneholder allerede C2PA-proveniensmetadata. Men den metadataen blir fjernet i det øyeblikket noen laster ned og laster opp på nytt til sosiale medier. Beviset forsvinner underveis.
Dette er ikke et deteksjonsproblem. Når du kjører rettsmedisinsk analyse på et viralt skjermbilde, har du allerede tapt. Fiksen starter ved fangst. Opprinnelseslegitimasjoner som er kryptografiske, maskinlesbare og forankret et sted de ikke kan fjernes stille og rolig.
Ikke for å fortelle folk hva de skal tro. For å gi dem noe å sjekke før debatten starter.
Kvitteringene bør overleve reisen. 🧾

Topp
Rangering
Favoritter
