IA se torna perigosamente persuasiva na política, alertam estudos
Técnica de debate conhecida como ‘Gish gallop’ é usada para sobrecarregar e convencer
Novas pesquisas apontam para um lado preocupante da inteligência artificial: os chatbots mais recentes estão se tornando excepcionalmente hábeis em persuadir as pessoas, frequentemente à custa da precisão dos fatos. Isso aumenta os riscos de desinformação política, especialmente em um ano de eleições importantes em diversos países.
Por algum tempo, cientistas tentaram oferecer um vislumbre de esperança de que a inteligência artificial poderia fazer uma contribuição positiva para a democracia. Eles demonstraram que chatbots poderiam confrontar teorias da conspiração que se espalham pelas redes sociais, desafiando informações falsas sobre questões como chemtrails e a Terra plana com um fluxo de fatos razoáveis durante a conversação.
No entanto, dois novos estudos sugerem um lado perturbador dessa mesma moeda. Os modelos de IA mais recentes estão ficando ainda melhores em persuadir as pessoas, utilizando uma tática de debate conhecida como ‘Gish gallop’. A técnica, batizada em referência ao criacionista americano Duane Gish, consiste em bombardear o interlocutor com uma enxurrada rápida de fatos e estatísticas, tornando extremamente difícil para a outra parte rebater cada ponto individualmente.
Essa capacidade de sobrecarga informativa, independentemente da veracidade do conteúdo, preocupa especialistas. Em um cenário de campanhas eleitorais e debates políticos online, a ferramenta poderia ser usada para manipular opiniões e espalhar narrativas falsas de maneira altamente eficaz, minando o processo democrático.
Acompanhe mais atualizações no Japão em Pauta.






