Voltar
Ministra alerta sobre manipulação digital e democracia
Ministra alerta sobre manipulação digital e democracia

Autor: por Mauro Camargo

Categorias:

Ministra alerta sobre manipulação digital e democracia

IA e algoritmos criam ecossistema de manipulação que ameaça a democracia e a confiança pública, alerta Ministra do TSE.

MANIPULAÇÃO ADVERSARIAL

Redes sociais e IA forjam ecossistema de manipulação que erode a democracia, diz ministra do TSE

Estela Aranha discute como plataformas digitais, algoritmos e deepfakes criam "manipulação adversarial online", desafiando a Justiça Eleitoral e a confiança pública.

Mauro Camargo

Em palestra no seminário “A Legística e o Desempenho Parlamentar”, realizado na sexta-feira (27), no Teatro do Cerrado Zulmira Canavarros, na Assembleia Legislativa de Mato Grosso (ALMT), a ministra Estela Aranha, do Tribunal Superior Eleitoral (TSE), alertou para os riscos da esfera pública digital. Ela destacou como redes sociais, curadoria algorítmica e inteligência artificial generativa (IA) constroem um “ecossistema adversarial” que prioriza emoções, radicalização e narrativas falsas, corroendo a confiança nas instituições e complicando a regulação eleitoral.

A ministra Estela Aranha iniciou sua exposição conectando-se à palestra anterior do ministro Gilmar Mendes, do STF, sobre o excesso de judicialização. “Isso também é importante no debate sobre manipulação adversarial online e inteligência artificial”, afirmou, enfatizando a transformação da esfera pública. Antes, o debate era mediado por conversas familiares, trabalho e instituições como a imprensa tradicional. Hoje, com redes sociais, essas mediações perdem força. “Não é só a imprensa; há menos eficácia no sistema de justiça e no poder público de modo geral”, observou.

Aranha descreveu a internet como não neutra. Ela é moldada por estruturas técnicas – design das plataformas, formatos curtos como tweets ou vídeos rápidos –, que alteram o conteúdo. “Pessoas têm dificuldade de concentração em vídeos longos”, exemplificou. Há também infraestruturas econômicas: plataformas controlam a economia digital, mercados e comunicações cotidianas. O “mercado de atenção” é central: algoritmos priorizam o que gera engajamento, não o que é verídico. “Eles entregam conteúdos que mobilizam emoções – briga, raiva, confusão –, porque prendem o usuário mais tempo”, explicou, ecoando a fala de Mendes sobre mobilização emocional.

Esse modelo favorece radicalizações políticas. “Plataformas incentivam confusão, pois discursos radicais geram mais tempo de permanência e perdas econômicas se moderados”, disse. Ex-funcionários denunciaram isso, mas o design prioriza engajamento. O resultado é um ecossistema híbrido: humanos, algoritmos, dispositivos individuais (cada um em sua tela, isolado). Influenciadores de lifestyle radicalizam em política para crescer, pois “conteúdo técnico ou esclarecedor engaja menos”. Parlamentares enfrentam dilema: “Se não brigam online, somem; precisam criar confusão para aparecer”.

Aranha criticou como isso afeta o ambiente político. “Em assembleias e câmaras, priorizamos ‘assunto da vez’ da internet, não problemas concretos da população”. Plataformas surgiram sem responsabilização: anonimato incentiva crimes e ataques. O STF avançou com o Tema de Repercussão Geral 987, impondo dever de cuidado às plataformas. Mas o problema é global: “Todos os países enfrentam o mesmo, devido ao sociotécnico das redes – único fator comum”.

A erosão da confiança pública é grave: descrédito em ciência, medicina, Judiciário, imprensa e poder público. “Não checamos fatos; confiamos em lives e timelines”. Tudo tem igual peso, agravado por IA generativa: textos, sites falsos, deepfakes plausíveis. “Estamos em guerra da informação; cidadãos fornecem dados que insights manipulam comportamentos para fins comerciais ou políticos”.

Fake news não é só mentira: é infraestrutura que facilita circulação organizada, financiada e massiva. “Bem jurídico não é a verdade – todos podem errar –, mas coordenação com objetivo político”. Plataformas monetizam emoções, criando vulnerabilidades estruturais: dependemos delas como canais de confiança. Efeitos: fragmentação (cada um vê fatos filtrados por grupos como WhatsApp) e “camargueamento” (*conversas só com iguais, sem contraditório). “Dificulta consensos mínimos sobre fatos e valores, essenciais para Constituição e leis”.

No sistema eleitoral, desafios são enormes. Regulado para TV e panfletos, priorizava paridade (fundo eleitoral, tempo de propaganda). Hoje, campanhas permanentes borram linhas entre político e eleitoral. “Qualquer interferência impacta eleições; atores anônimos espalham volumes industriais”. Justiça Eleitoral não regula toda fala; anonimato, financiamento opaco (influencers pagos, campanhas externas) e falta de ferramentas tradicionais complicam fiscalização.

A ministra Estela Aranha usou slides em sua palestra para ilustrar os principais conceitos e os limites das ações judiciais contra a desinformação. Ela destacou que as resoluções do Tribunal Superior Eleitoral (TSE) evoluíram, com medidas como o combate às fake news e proibições recentes de conteúdos manipulados, mas enfatizou que isso não basta para enfrentar a complexidade atual.

A manipulação adversarial online, termo preferido pela relatora em vez de "fake news", é sutil e não se resume a fatos falsos isolados. Trata-se de ações distribuídas, envolvendo atores políticos e comerciais, além de participantes voluntários (como usuários comuns) ou involuntários (enganados pela narrativa). A mecânica cria um consenso artificial ao simular popularidade: um tema é inflado para parecer legítimo. Exemplo concreto da eleição presidencial americana: uma história sobre "imigrantes comendo pets de vizinhos" surgiu em um grupo local de bairro, ganhou tração com prints compartilhados no Twitter (hoje X), foi endossada por J.D. Vance (candidato a vice), e explodiu nacionalmente com imagens e vídeos gerados por inteligência artificial (IA). Mesmo desmentida – os pets estavam presos no porão –, o debate sobre imigração dominou a campanha. A imprensa cobriu o caos gerado por "caçadores de comedores de pets", que formaram multidões, ampliando involuntariamente a narrativa. "É uma mistura de inautêntico, como bots e influencers pagos, com orgânico; as plataformas privilegiam engajamento emocional", explicou Aranha.

Entre as vulnerabilidades, algoritmos priorizam emoção e verossimilhança em vez de verdade, com total opacidade sobre feeds e na fabricação de conteúdos. Há incentivos econômicos, como plataformas de "cortes" (edições curtas de vídeos) que remuneram por visualizações – R$ 13 por mil views atualmente. Jovens em casa, sem emprego, distribuem virais em massa, como ocorreu nas eleições municipais de São Paulo. Para candidatos, o custo é baixo: antes, R$ 3 mil por mil views. Isso fomenta misoginia online contra minorias, com resolução do TSE obrigando remoção imediata de conteúdos ofensivos.

A IA generativa eleva a escala: produz textos e vídeos customizados por perfil demográfico (gênero, idade, localização), distribui de forma automatizada e adapta em tempo real. Explora vieses psicológicos e microdirecionamento (mensagens personalizadas). Exemplos de deepfakes: na Argentina, vídeo falso do ex-presidente Macri, 24 horas antes da eleição, "desistindo" de sua candidata e pedindo votos na oposição – verossímil em tela de celular. Outra: propaganda brasileira premiada internacionalmente (prêmio cassado), com trechos falsos de CNN e TED Talk gerados por IA para vender geladeiras, simulando escândalos reais. Agentes autônomos de IA criam perfis falsos como influenciadores; ataques são segmentados por vulnerabilidades individuais.

Os desafios jurídicos incluem falta de transparência em feeds alheios, auditoria de pagamentos a influencers (muitas vezes opacos, revelados só por denúncias) e rastreamento de redes coordenadas. A responsabilidade vai além do conteúdo individual: abrange arquitetura e design das plataformas, além de redes coordenadas. "Não se penaliza post isolado, mas coordenação e financiamento por trás", defendeu. É preciso distinguir autêntico de sintético sem cercear liberdade de expressão. "Não basta checagem de fatos; urge desarticular o ecossistema de atores humanos, máquinas algorítmicas e incentivos econômicos."

Aranha concluiu: "Mudei minha visão: não é fake news isolada, mas forjação da esfera pública, com agendas artificiais e erosão do debate deliberativo. Nosso sistema jurídico, moldado para o mundo analógico, luta para acompanhar essa realidade."

 

*Camargueamento
A expressão "camargueamento", usada pela ministra Estela Aranha em sua palestra, é um neologismo que descreve o fenômeno de isolamento em grupos homogêneos nas redes sociais, semelhante aos bandos de flamingos na região da Camargue, no sul da França. Lá, os flamingos formam grandes grupos rosados em lagoas rasas, ignorando o entorno diverso e reforçando sua uniformidade visual e comportamental.
No contexto digital, refere-se às "bolhas epistêmicas" ou "câmaras de eco": algoritmos das plataformas entregam conteúdos que confirmam crenças pré-existentes, limitando exposição a visões contrárias. Usuários "flaminguizam", conversando só com "iguais", o que amplifica polarização, radicalização e desinformação. Aranha menciona: "você acaba falando sempre com seus iguais... volta aquela mesma conversa".
Origem: Metáfora recente no debate brasileiro sobre desinformação, popularizada por acadêmicos e juristas como Aranha (relatora no TSE). Inspirada na imagem icônica da Camargue (Parque Natural Regional da Camarga), ganhou tração em estudos sobre ecossistemas digitais (ex.: trabalhos de Bennett & Livingston sobre erosão da esfera pública). Não é termo técnico formal, mas ilustrativo para explicar fragmentação informacional.
Imagem perfil

Chame no WhatsApp

Fechar

Mensagem