IA acelera desinformação e ameaça democracias, alerta pesquisa

Agência Brasil

O rosto é igual. A voz, também. Mas a informação é suspeita. As ferramentas de inteligência artificial (IA) elevaram a necessidade de desconfiança dos conteúdos que cada um de nós recebe de diferentes formas, como em nenhum outro momento da história. Quem diz isso são os próprios profissionais que fazem checagem de informação. Eles recomendam desconfiança.

Um retrato disso está em um levantamento, divulgado nesta semana, feito a partir de 1.294 checagens profissionais em pelo menos dez idiomas, produzido pela Agência Lupa (veículo especializado nesse tipo de atividade). O mapeamento tem o título “O impacto da IA no Fact-checking Global”.

O resultado desse painel é que 81,2% dos casos de desinformação com tecnologias de inteligência artificial surgiram apenas nos últimos dois anos (entre janeiro de 2024 e março de 2026). Eleições, guerras e golpes foram os assuntos mais recorrentes.

Segundo a gerente de inovação e formação da Agência Lupa, Cristina Tardáguila, a IA está redefinindo o campo da desinformação em escala global.

A imensa maioria das peças que são analisadas pelos checadores acaba levando a etiqueta de falso ou de enganoso. A IA dificilmente tem sido feita para impulsionar conteúdos verdadeiros”, disse em entrevista à Agência Brasil.

Outra observação da pesquisadora, fundadora da Lupa, é que a desinformação chega ao público em diferentes formatos (além de vídeos, áudios curtos, fotos e textos). Uma preocupação é sobre o uso dessas tecnologias nos períodos eleitorais no mundo todo. Para ela, são utilizações que ameaçam democracias.

“Este é um ano eleitoral importante no Brasil e em outros parceiros da região”. Ela cita os processos nos Estados Unidos, no Peru, na Costa Rica e na Colômbia. Esse cenário vai impactar a vida dos checadores desses países e também dos eleitores.

“Eles vão receber uma enxurrada de conteúdos com IA e com grande chance de essas peças serem, na verdade, grandes falsidades”, acrescenta.

Segundo ela, isso significa que o uso de IA para manipular conteúdos deixou de ser pontual e passou a integrar de forma permanente o ambiente da desinformação digital. O volume de checagens que flagraram esse tipo de mentira cresceu de 160 casos (em 2023) para 578 (em 2025). Até março deste ano, já havia 205 verificações.

Curta e compartilhe:

Walter Santos

Leia mais →

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *