Duas semanas do conflito no Irão produziram uma crise de confiança que se quebrou em ambas as direções ao mesmo tempo. Um vídeo real de Netanyahu a dar uma conferência de imprensa foi chamado de gerado por IA porque um quadro ainda fez a sua mão parecer ter seis dedos. As ferramentas de deteção de deepfake marcaram uma probabilidade de 0,1% de ser sintético. Não importou. Milhões viram a alegação antes que alguém pudesse verificar. Ao mesmo tempo, uma imagem gerada por IA de um "Netanyahu ferido" circulou como evidência real. Um screenshot fabricado de um tweet deletado da sua conta oficial tornou-se viral como prova de que ele tinha morrido. Ambos falsos. Ambos tratados como reais. E foi em ambas as direções. Uma foto autêntica de um verdadeiro fotojornalista mostrando multidões em Teerão foi sinalizada como gerada por IA. Conteúdo real chamado falso. Conteúdo falso chamado real. Mesmo ciclo de notícias. A BBC Verify rastreou mais de 300 vídeos de guerra gerados por IA com dezenas de milhões de visualizações. Imagens de satélite fabricadas por IA de uma base dos EUA "destruída" foram publicadas por um meio alinhado ao estado. Contas monetizadas no X estavam literalmente a ser pagas através do programa de criadores para espalhar falsificações sintéticas. Algumas das ferramentas de IA que criaram este conteúdo já incorporam metadados de proveniência C2PA. Mas esses metadados são removidos no momento em que alguém faz o download e reenvia para as redes sociais. A prova desaparece em trânsito. Este não é um problema de deteção. Quando você está a realizar uma análise forense de um screenshot viral, já perdeu. A solução começa na captura. Credenciais de proveniência que sejam criptográficas, legíveis por máquina e ancoradas em algum lugar que não possam ser removidas silenciosamente. Não para dizer às pessoas no que acreditar. Para lhes dar algo para verificar antes que o debate comece. Os recibos devem sobreviver à jornada. 🧾