Publicidade evento Churrascaje 2024

Código indecifrável: desafios da imprensa na era da inteligência artificial

Foto:
Rogério Potinatti
6/8/2025
às
21:00

A menos de um ano do primeiro turno de 2026, a imprensa brasileira volta-se para um inimigo que cresce em silêncio: a combinação de inteligência artificial generativa e deepfakes.

Em junho, a presidente do Tribunal Superior Eleitoral, ministra Cármen Lúcia, instituiu um grupo de trabalho e anunciou audiências públicas para ajustar as regras que vão reger o pleito, avisando que a Corte prepara uma “cruzada” contra o uso fraudulento da tecnologia nas campanhas.

Esse esforço amplia a resolução 23.732/2024, que já proíbe deepfakes na propaganda eleitoral e exige que qualquer conteúdo produzido com IA traga aviso explícito, além de responsabilizar solidariamente as plataformas que não removerem peças manipuladas.

Mesmo com a norma em vigor nas eleições municipais de 2024, entidades que monitoram a desinformação detectaram picos de  vídeos adulterados em grupos fechados, sobretudo durante a reta final da campanha em grandes capitais.

Decisões de Tribunais Regionais Eleitorais mostraram quanto é difícil enquadrar juridicamente materiais sintéticos que misturam sátira, montagem e fraude, revelando a urgência de capacitar peritos forenses e repórteres para analisar metadados, padrões visuais e cadeias de disseminação.

Ao mesmo tempo, a IA já faz parte da cozinha das redações. O Digital News Report 2025 destaca que chatbots e tradutores automáticos são usados para acelerar transcrições, sugerir pautas e produzir resumos. O estudo alerta, contudo, que a dependência de algoritmos enfraquece o tráfego orgânico e ameaça o modelo de negócios da imprensa tradicional.

A adoção ainda é cautelosa: Folha, Globo, Estadão e G1 afirmam manter “controle humano total” antes da publicação, mas admitem que quem não dominar a tecnologia ficará para trás em métricas de velocidade e relevância.

Pressão por resultados, equipes enxutas e ciclos noticiosos contínuos intensificam o desgaste psicológico. Relatório do Reynolds Journalism Institute — repercutido no Brasil pela Abraji — mostra que mais de 80% dos profissionais já associam a rotina a estresse extremo ou exaustão crônica, e que o burnout superou a crise financeira como principal ameaça à qualidade do jornalismo.

E o Ministério da Saúde incluiu explicitamente os jornalistas entre as ocupações de maior risco.

Enquanto o chamado “PL das Fake News” (2630/2020) permanece travado na Câmara, iniciativas de autorregulação avançam.

Grandes veículos testam selos de transparência para apontar uso de IA em partes do fluxo de trabalho, e consórcios de checagem negociam acesso compartilhado a softwares forenses de análise de vídeo e áudio. A meta é cortar custos e ganhar fôlego diante da avalanche de conteúdos manipulados que já circulam a poucos cliques do público.

Diante desse cenário, três frentes se mostram indispensáveis: alfabetização algorítmica para repórteres e editores; protocolos redacionais que deixem claro quando e como a IA foi empregada e políticas de bem-estar que incluam metas factíveis, apoio psicológico e revisão de indicadores baseados apenas em page views.

Sem isso, o jornalismo corre o risco de terceirizar a própria credibilidade aos códigos opacos que busca fiscalizar.

A boa notícia é que a profissão nunca teve tantas ferramentas para desmascarar a mentira — de bancos de dados abertos a modelos de detecção de fraude audiovisual.

A má é que a velocidade da desinformação costuma ser maior do que a da apuração.

No fim, a promessa da IA para as redações brasileiras não está na substituição do repórter, mas em ampliar o alcance de um ofício que continua insubstituível: filtrar o ruído, contextualizar os fatos e assegurar que, mesmo em meio a bytes de manipulação, a verdade siga encontrando espaço para ser contada.

Por:

Rogério Potinatti

Jornalista profissional | MTB: 50.151/SP