Banner

Notícias em Destaque

TSE precisa prestar atenção a robôs de IA

TSE precisa prestar atenção a robôs de IA que convencem eleitor a mudar voto. Ferramentas se mostram eficazes para persuadir usuários a trocar de candidato, concluem estudos.

A discussão sobre o impacto da inteligência artificial (IA) nas eleições tem destacado — acertadamente — os riscos trazidos por propaganda com imagens, áudios e vídeos fraudulentos, conhecidos como deepfakes. 

Um aspecto menos discutido, mas cujos danos também podem ser enormes, é a interferência de robôs como ChatGPT, Gemini e demais chatbots. Dois estudos recentes publicados nas maiores revistas científicas do mundo — a britânica Nature e a americana Science — dão uma medida do desafio que eles representam para autoridades eleitorais. 

Dadas as inclinações políticas das grandes plataformas digitais, e a resistência delas a assumir responsabilidades como produtoras de conteúdo, é essencial que o Tribunal Superior Eleitoral (TSE) esteja atento aos riscos dos chatbots.

Ambos os estudos concluíram que as ferramentas de IA são eficazes para mudar a opinião do eleitor. No experimento “A persuasão de eleitores com o uso de diálogos entre humanos e IA”, publicado na Nature, os pesquisadores instruíram um chatbot a mudar a opinião de usuários sobre candidatos presidenciais. 

Escolhidos de forma aleatória, os participantes foram questionados sobre sua posição inicial, começaram a interagir com a máquina usando mensagens escritas e, ao fim, voltaram a ser questionados sobre sua intenção de voto. O experimento foi realizado na eleição americana de 2024, na canadense de abril e na polonesa de junho.

Nos Estados Unidos,o robô pró-Kamala Harris mudou em 3,9 pontos percentuais o voto dos simpatizantes de Donald Trump. Na mão contrária, em 1,5 ponto. No Canadá e na Polônia, a variação foi maior, de até dez pontos. 

Os chatbots foram programados para usar táticas de persuasão comuns, com boa educação e apresentação de evidências. Quando os pesquisadores proibiram o uso de dados apresentados como fatos, a eficácia caiu. Os pesquisadores conferiram a veracidade das informações e verificaram que, de modo geral, eram corretas. Mas os robôs programados para defender candidatos de direita fizeram mais afirmações imprecisas que os de esquerda.

O segundo estudo, “As alavancas da persuasão política com IA que conversa”, publicado na Science, mediu a mudança de opinião de cerca de 77 mil britânicos sobre 707 temas. Também examinou a veracidade de mais de 466 mil afirmações geradas por IA. Os pesquisadores descobriram que a estratégia mais eficiente para aumentar a persuasão é instruir os chatbots a usar a maior quantidade possível de informação na argumentação. 

Os modelos mais bem-sucedidos mudaram a opinião dos participantes em 25 pontos percentuais. Quanto mais persuasivo o modelo, menos precisas eram as informações fornecidas. A suspeita é que, pressionado, o chatbot não tem mais de onde tirar informações e começa a inventar.

A IA tem suscitado previsões apocalípticas ou otimismo ingênuo. Seus efeitos serão os que a sociedade decidir. Daí a necessidade de identificar problemas e enfrentar os riscos. No caso das autoridades eleitorais, os estudos mostram que há muito trabalho a fazer.

LEIA A MATÉRIA COMPLETA NO LINK: https://oglobo.globo.com/opiniao/editorial/coluna/2025/12/tse-precisa-prestar-atencao-a-robos-de-ia-que-convencem-eleitor-a-mudar-voto.ghtml

 

 

Publicador: Marcos
9 0
Entre em contato

Av.Rio Branco, 156/ Sala 1209
    Centro - Rio de Janeiro - RJ

(21) 2224-9571

sindicatosinpol@gmail.com

Siga-nos

© Sinpol - Sindicato dos Funcionários da Polícia Civil do Estado do Rio de Janeiro . All Rights Reserved.