Două săptămâni de conflict cu Iranul au produs o criză de încredere care a izbucnit simultan în ambele direcții. Un videoclip real cu Netanyahu susținând o conferință de presă a fost numit generat de AI pentru că un cadru fix făcea ca mâna lui să pară că are șase degete. Instrumentele de detectare deepfake au dat o probabilitate de 0,1% să fie sintetică. Nu conta. Milioane au văzut afirmația înainte ca cineva să poată verifica. În același timp, o imagine generată de AI cu un "Netanyahu rănit" a circulat ca dovadă reală. O captură de ecran fabricată a unui tweet șters de pe contul său oficial a devenit virală ca dovadă că a murit. Ambele false. Ambele tratate ca fiind reale. Și mergea în ambele sensuri. O fotografie autentică realizată de un fotojurnalist real care arată mulțimi în Teheran a fost marcată ca fiind generată de AI. Conținut real numit fals. Conținut fals numit real. Același ciclu de știri. BBC Verify a urmărit 300+ de videoclipuri de război generate de AI, cu zeci de milioane de vizualizări. Imagini satelitare fabricate de AI ale unei baze americane "distruse" au fost postate de o instituție aliniată cu un stat. Conturile monetizate X erau plătite literalmente prin programul creator pentru a răspândi falsuri sintetice. Unele dintre instrumentele AI care au creat acest conținut deja încorporează metadatele provenienței C2PA. Dar aceste metadate sunt eliminate în momentul în care cineva descarcă și reîncarcă pe rețelele sociale. Dovada dispare în timpul tranzitului. Aceasta nu este o problemă de detectare. Până când faci analiză criminalistică pe o captură virală, deja ai pierdut. Reparația începe la capturare. Acreditări de proveniență criptografice, lizibile de mașină și ancorate undeva unde nu pot fi eliminate discret. Nu să le spună oamenilor ce să creadă. Să le ofere ceva de verificat înainte să înceapă dezbaterea. Chitanțele ar trebui să reziste călătoriei. 🧾