Autor: Arthur Alves Xavier

Os riscos da manipulação do eleitorado por meio de ferramentas de IA e os desafios para a regulação do setor.

Embora a inteligência artificial (IA) não tenha capacidade legal para votar, sua influência sobre o comportamento político do eleitorado tem se tornado uma preocupação crescente. Assistidas por algoritmos avançados, plataformas digitais e chatbots — como o Grok, da rede social X (antigo Twitter) — estão sendo utilizados para disseminar opiniões políticas, muitas vezes baseadas em dados não verificados ou enviesados, comprometendo a integridade do debate público. 

Recentemente, viralizou nas redes sociais a prática de consultar o Grok sobre preferências eleitorais. O sistema, além de indicar supostos “melhores candidatos” à presidência em 2026, justificava suas escolhas com argumentos prontos, levantando questões sobre a neutralidade e a procedência das informações utilizadas. Esse fenômeno expõe um risco claro: a capacidade da IA de moldar percepções políticas por meio de respostas personalizadas, mas nem sempre confiáveis. 

A crescente interferência de sistemas automatizados em processos eleitorais tem levado autoridades a agir. O Tribunal Superior Eleitoral (TSE), em resolução publicada em fevereiro de 2024, proibiu o uso de inteligência artificial para criar ou propagar conteúdos falsos durante campanhas. A medida inclui a restrição a robôs que simulam interação com eleitores, visando coibir a disseminação de desinformação e garantir transparência no pleito. 

Especialistas alertam que, apesar de a IA facilitar o acesso à informação, sua aplicação em contextos políticos pode distorcer o debate democrático. Um estudo da Universidade de São Paulo (USP) aponta que ferramentas como o ChatGPT e o Grok podem, involuntariamente, reproduzir vieses presentes em suas bases de dados, reforçando narrativas parciais. Além disso, a velocidade com que conteúdos gerados por IA se espalham nas redes sociais dificulta o controle de informações enganosas. 

Enquanto o TSE busca frear os abusos, a discussão sobre os limites éticos do uso de IA na política ganha força. Casos como o do Grok — que, em 2023, chegou a “declarar voto” em um candidato específico, gerando polêmica — evidenciam a urgência de normas mais rígidas. Para analistas, a regulamentação atual ainda é insuficiente diante do avanço tecnológico, exigindo atualizações constantes para evitar que máquinas influenciem indevidamente decisões humanas. 

Nesse cenário, a pergunta central não é se a IA pode votar, mas até que ponto ela já está moldando — e possivelmente manipulando — as escolhas dos eleitores. 


REFERÊNCIAS BIBLIOGRÁFICAS

TRIBUNAL SUPERIOR ELEITORAL (TSE). TSE proíbe uso de inteligência artificial para criar e propagar conteúdos falsos nas eleições. 2024. Disponível em: https://www.tse.jus.br/comunicacao/noticias/2024/Fevereiro/tse-proibe-uso-de-inteligencia-artificial-para-criar-e-propagar-conteudos-falsos-nas-eleicoes. Acesso em: (24.abr. 2025).

JORNAL DA USP. Inteligências artificiais entram em campo contra (e a favor) da desinformação. 2023. Disponível em: https://jornal.usp.br/atualidades/inteligencias-artificiais-entram-em-campo-contra-e-a-favor-da-desinformacao/. Acesso em: (24. abr. 2025)

GAZETA DO POVO. Grok “declara voto” em Lula: por que IAs têm esse tipo de “deslize”? 2023. Disponível em: https://www.gazetadopovo.com.br/ideias/grok-declara-voto-em-lula-por-que-ia-tem-esse-tipo-de-deslize/. Acesso em: (24. abr. 2025).