Inteligência artificial liga alerta a seis meses das eleições
A menos de seis meses das eleições presidenciais de 2026, o uso de chatbots de inteligência artificial (IA) para responder a questionamentos sobre candidatos tem gerado alertas e desafios para o Tribunal Superior Eleitoral (TSE). A capacidade dessas ferramentas de influenciar a opinião pública com base em informações potencialmente enviesadas ou incorretas é classificada como um dos principais desafios do ano eleitoral pela presidente do TSE em fim de mandato, ministra Cármen Lúcia.
Diante desse cenário, o TSE implementou novas regulamentações em março visando coibir o “abuso ou mau uso” da tecnologia. A corte reconhece o risco de contaminação do processo eleitoral e aumentou a responsabilidade das plataformas digitais por conteúdos falsos, além de restringir a atuação de chatbots em 2026. A resolução proíbe explicitamente que assistentes virtuais forneçam recomendações, rankings ou opiniões sobre candidatos e partidos, mesmo quando solicitados pelos usuários.
Chatbots ignoram novas regras do TSE
Contudo, testes realizados logo após a publicação das normas revelaram que chatbots como ChatGPT, Grok e Gemini continuam a desrespeitar as diretrizes. Ao serem questionados sobre “os melhores candidatos para as eleições de 2026”, as ferramentas apresentaram respostas que incluíam rankings e opiniões. O ChatGPT, por exemplo, citou Tarcísio de Freitas e Romeu Zema como os melhores “tecnicamente”, enquanto avaliou Luiz Inácio Lula da Silva com base em “vasta experiência” e “idade avançada”. Flávio Bolsonaro apareceu em posições inferiores ou nem foi mencionado.
Riscos de desinformação e viés
As respostas enviesadas ou incorretas dessas IAs preocupam, especialmente em um país altamente conectado como o Brasil. Segundo o professor Theo Araújo, diretor do Centro de Pesquisa em Comunicação da Universidade de Amsterdã, as respostas são geradas a partir de probabilidades baseadas em dados de treinamento, que podem conter erros ou vieses. Um estudo realizado por ele durante as eleições nos Países Baixos em 2025 indicou que cerca de 10% das pessoas poderiam usar essas ferramentas para se informar sobre candidatos.
“Na política, eleitores geralmente entendem que certas fontes têm tendências, mais à direita ou à esquerda. No caso destes chatbots, existe o risco de que eleitores achem que estas tecnologias são neutras ou objetivas, e que processem estas respostas de maneira menos crítica.”
Esse risco é agravado pela percepção de neutralidade associada aos chatbots. O professor Araújo ressalta que eleitores podem processar as informações geradas por IA com menos senso crítico do que fariam com fontes jornalísticas tradicionais. A situação se torna mais complexa com a própria utilização dessas ferramentas por políticos, como Flávio Bolsonaro, que incentivou seguidores a “perguntar ao chat o que é verdade”, evidenciando a busca por validação em IAs.
Incertezas sobre sanções e aprimoramentos
Apesar das novas regras, a aplicação de punições às plataformas ainda gera incerteza, uma vez que a resolução do TSE não prevê sanções diretas. O advogado Diogo Rais, especialista em Direito Eleitoral, aponta que o tribunal poderia aplicar multas diárias, mas os valores não são preestabelecidos e podem ser contestados judicialmente. Em resposta, a OpenAI afirma que o ChatGPT é “treinado para não favorecer candidatos” e que busca aprimoramento contínuo. O Google, por sua vez, declara que o Gemini gera respostas baseadas nos prompts dos usuários, sem refletir necessariamente a opinião da empresa. Tentativas de contato com o X (antigo Twitter) não obtiveram sucesso.
