Madras Times - Vídeos falsos sobre guerra no Oriente Médio se multiplicam no X apesar dos alertas

Vídeos falsos sobre guerra no Oriente Médio se multiplicam no X apesar dos alertas
Vídeos falsos sobre guerra no Oriente Médio se multiplicam no X apesar dos alertas / foto: Kirill KUDRYAVTSEV - AFP

Vídeos falsos sobre guerra no Oriente Médio se multiplicam no X apesar dos alertas

Vídeos falsos criados com inteligência artificial (IA) se multiplicam no X e mostram soldados americanos capturados pelo Irã, uma cidade israelense em ruínas ou embaixadas dos Estados Unidos em chamas, em uma onda de desinformação apesar de uma política mais rígida para contê-la.

Tamanho do texto:

A guerra no Oriente Médio gerou uma avalanche de imagens criadas com IA que supera tudo o que foi visto em conflitos anteriores e frequentemente impede os usuários de distinguir o real do fictício, afirmam pesquisadores.

Na tentativa de proteger a "informação autêntica" durante conflitos, a rede de Elon Musk anunciou, na semana passada, que suspenderá por 90 dias do programa de remuneração os criadores que publicarem vídeos sobre a guerra sem avisar que foram gerados por IA.

Se continuarem publicando esse tipo de conteúdo, a suspensão será permanente, advertiu na plataforma a chefe de produto, Nikita Bier.

A nova política representa uma mudança importante para a rede social, criticada por se tornar um espaço propício à desinformação desde que Musk a comprou, em outubro de 2022, por 44 bilhões de dólares (aproximadamente R$ 235 bilhões, na cotação da época).

Mesmo assim, pesquisadores permanecem céticos.

"Os tópicos que monitoro ainda estão inundados de conteúdo sobre a guerra gerado por IA", disse à AFP Joe Bodnar, do Instituto para o Diálogo Estratégico.

"Não parece que os criadores de conteúdo tenham sido dissuadidos de difundir imagens e vídeos enganosos sobre o conflito gerados por IA", acrescentou.

Bodnar citou uma publicação de uma conta verificada, elegível para monetização, que compartilhou um vídeo feito com IA mostrando um suposto ataque iraniano "com capacidade nuclear" contra Israel.

- Incentivos para 'fakes' -

O X não respondeu uma pergunta da AFP sobre quantas contas tiveram a monetização suspensa desde o anúncio da nova política.

A rede global de verificação da AFP, do Brasil à Índia, identificou um fluxo constante de conteúdos falsos sobre a guerra no Oriente Médio gerados com IA, muitos publicados por contas pagas da plataforma.

Entre eles estão vídeos que mostram soldados americanos chorando dentro de uma embaixada bombardeada, militares capturados de joelhos ao lado de bandeiras iranianas ou uma frota de navios americanos destruída.

Esse fluxo de imagens fabricadas, misturadas a imagens reais do Oriente Médio, cresce mais rápido do que os verificadores conseguem identificá-las.

O próprio chatbot de IA do X, Grok, também agravou o problema ao responder de forma errada usuários que perguntavam se alguns conteúdos gerados por IA sobre a guerra eram reais.

Pesquisadores também alertam que o modelo da plataforma - que permite às contas premium ganhar dinheiro com base no engajamento - ampliou os incentivos econômicos para conteúdos falsos ou sensacionalistas.

Uma conta premium que publicou um vídeo mostrando o arranha-céu Burj Khalifa, em Dubai, em chamas ignorou o pedido de Bier para identificar o conteúdo como obra de IA. O vídeo segue online e já ultrapassou dois milhões de visualizações.

- 'Contramedida' -

No mês passado, um relatório do Tech Transparency Project apontou que o X parecia lucrar com mais de duas dezenas de contas premium de funcionários do governo iraniano e de meios de comunicação estatais que difundiam propaganda, o que poderia violar as sanções americanas.

Posteriormente, a plataforma retirou a marca de verificação azul de algumas dessas contas, segundo o relatório.

Mesmo que a nova penalidade seja aplicada de forma rigorosa, muitos usuários que divulgam conteúdos gerados por IA não participam do programa de remuneração, observam pesquisadores.

Essas contas continuam sujeitas à verificação pelo sistema Community Notes, cuja eficácia tem sido questionada.

Um estudo do Instituto Democracia Digital para as Américas concluiu no ano passado que mais de 90% das Community Notes da plataforma nunca são publicadas.

"A política do X é uma contramedida razoável diante da desinformação viral sobre a guerra. Em princípio, reduz a estrutura de incentivos", afirmou Alexios Mantzarlis, diretor da Security, Trust, and Safety Initiative da Cornell Tech.

Mas "é pouco provável que o X consiga garantir ao mesmo tempo alta precisão e uma grande retirada de conteúdos gerados por IA da rede por meio dessa política", acrescentou.

burs-ac/js/cjc/mar/lm/mvv

D.Mehra--MT