O primeiro turno das eleições de 2026 acontece em outubro, e as campanhas transitarão em meio a um cenário em que a inteligência artificial pode mudar o jogo. Em seminário da Justiça Eleitoral, a presidente do TSE, Carmen Lúcia, enfatizou a necessidade de um olhar cuidadoso para a IA nas eleições e para a desinformação, defendendo transparência e medidas preventivas.
Ela ressaltou que a desinformação é um tema que recebe atenção global, assim como a IA, e que é essencial assegurar que as tecnologias sejam usadas de forma transparente, para identificar manipulações sem cercear a liberdade de expressão.
A seção sobre IA gerativa para imagens e vídeos explica como modelos aprendem a partir de bilhões de imagens e clipes, criando conteúdos novos a partir de comandos. Em 2025, a IA avançou rapidamente, alimentando debates sobre seu papel nas campanhas e na circulação de informações falsas.
O avanço da IA na política ganhou notoriedade com episódios que envolveram a circulação de conteúdos gerados por IA, incluindo casos que alimentaram controvérsias sobre a veracidade de provas e declarações. Analistas destacam que a tecnologia pode ampliar narrativas, reforçando posições já existentes na população.
Além disso, o texto aborda a regulamentação. Para as eleições municipais de 2024, o TSE regulamentou o uso de IA na propaganda, proibiu deepfakes, exigiu avisos sobre uso de IA e restringiu o emprego de robôs para intermediar contato com eleitores, responsabilizando grandes plataformas por conteúdos de desinformação que não sejam removidos rapidamente.
Especialistas destacam que o principal desafio não é apenas detectar conteúdo manipulado, mas enfrentar o impacto social da circulação de vídeos e imagens enganosos. Embora a detecção tenha evoluído, a disseminação massiva de conteúdos manipulados continua sendo o risco central para o processo democrático.
A IA poderia, em teoria, democratizar estratégias de campanha, mas tende a favorecer quem já possui mais recursos, aponta o professor Flávio de Barros Vidal, da UnB. Ele defende que o tema precisa de uma regulamentação clara e democrática, para evitar abusos e assegurar um jogo limpo.
A cientista política Hannah Maruci ressalta que a IA pode ampliar a qualidade de conteúdos, tornando vídeos e imagens cada vez mais fidedignos, o que exige vigilância constante. Ela cita que pessoas costumam acreditar em conteúdos que fortalecem o que já pensam, o que pode ampliar o efeito de narrativas políticas enganosas.
Galeria de imagens






IA generativa para imagens e vídeos. Os modelos analisam bilhões de imagens e vídeos, aprendendo a relação entre palavras e padrões visuais. A imagem não é buscada, é criada; o software parte de ruído e, aos poucos, refina a figura até atender ao pedido, usando coordenadas matemáticas para orientar a composição. Em vídeos, a IA gera quadros sequenciais que simulam movimentos sem distorção, produzindo conteúdos inéditos com base em probabilidades.
O avanço da IA geradora para conteúdos ultra reais dominou a internet em 2025. Na política, isso já gerou debates como a chamada “guerra virtual do IOF”, relacionada a tensões entre Congresso e governo sobre o tema, com narrativas políticas moldadas pela IA em diferentes espectros ideológicos.
Em outubro de 2025, o juiz Carlos Eduardo Batista dos Santos, da 2ª Vara Cível de Brasília, condenou o Partido Liberal (PL) a indenizar o PT em R$ 20 mil por danos morais após o PT ter postado um vídeo de IA ligando petistas a usuários de drogas. Hannah Maruci comenta que a IA pode ampliar o alcance de narrativas, incluindo conteúdos que tentam desqualificar o adversário como “fabricação digital”.
“A IA será muito mais preocupante nas eleições de 2026 do que em pleitos anteriores. O acesso ampliado a ferramentas digitais facilita o uso, e o remédio é claro: democratizar regras para um jogo limpo, atendendo à sociedade de maneira objetiva.”
Regulamentação também ganhou espaço. Em 2024, o TSE definiu regras para o uso de IA na propaganda de partidos e candidaturas, proibiu deepfakes, exigiu avisos sobre uso de IA e estabeleceu responsabilidades para plataformas que não removem conteúdos de desinformação rapidamente, além de restringir robôs que intermediam contactos com o eleitor.
Do ponto de vista técnico, especialistas afirmam que identificar conteúdos manipulados continua viável com as ferramentas certas, mas o desafio real está no impacto social da circulação de vídeos falsos. A disseminação massiva de conteúdos manipulados pode influenciar a opinião pública, independentemente da capacidade de detecção.
O equilíbrio entre avanço tecnológico e controle ético é central. A IA pode ampliar o acesso a estratégias de campanha, mas tende a favorecer quem já dispõe de mais recursos, exigindo uma resposta pública clara, democrática e eficaz para manter a integridade do processo eleitoral.
Para o futuro, a aposta é em regras bem definidas que orientem o uso da IA, protejam as vítimas de desinformação e mantenham um espaço político competitivo e confiável. O desafio é grande, e a solução envolve diálogo, transparência e responsabilidade de todos os agentes envolvidos.
Como você vê o papel da IA nas campanhas eleitorais de 2026? Acha que as regras atuais são suficientes ou é preciso evoluir rapidamente? Compartilhe sua opinião nos comentários.

Facebook Comments