Pesquisadores do Instituto de Segurança de IA do Reino Unido, em colaboração com cientistas do MIT, Stanford e Carnegie Mellon, publicaram um estudo sobre o poder de influência política de modelos de linguagem. A pesquisa envolveu aproximadamente 80 mil participantes britânicos e demonstrou que os chatbots IA exercem persuasão relativamente modesta na hora do voto. Estes resultados contradizem previsões que sugeriam capacidades extraordinárias de manipulação por parte dessas tecnologias.
A investigação analisou 19 diferentes modelos de linguagem natural (LLMs), incluindo sistemas avançados como o ChatGPT e o Grok-3 beta. Os cientistas avaliaram a eficácia desses sistemas em influenciar as opiniões dos participantes sobre 707 questões políticas distintas.
Conforme reportado pelo Ars Technica, este representa um dos estudos mais extensos já realizados sobre a capacidade de persuasão política de sistemas de inteligência artificial.
O estudo foi motivado por preocupações expressas há cerca de dois anos por Sam Altman. O CEO da OpenAI sugeriu a possibilidade de sistemas de IA alcançarem níveis excepcionais de persuasão antes mesmo de atingirem inteligência geral.
O debate público sobre IA e política frequentemente incorpora cenários distópicos. Muitas pessoas acreditam em um alto poder de manipulação, já que LLMs possuem acesso a extensas bases de conhecimento sobre temas políticos e comportamento humano.
Para a realização da pesquisa, os participantes foram recrutados através de uma plataforma de crowdsourcing e receberam pagamento para avaliar seu grau de concordância com posições políticas específicas em uma escala de 1 a 100, antes e depois de interagirem com os sistemas de IA.
Resultados mostram influência moderada
Os dados revelaram que, em média, os modelos de IA alteraram os índices de concordância dos participantes em 9,4% em comparação com o grupo de controle. O GPT-4o demonstrou ser o modelo convencional mais eficaz, com quase 12% de influência, seguido pelo GPT-4.5 com 10,51% e pelo Grok-3 com 9,05%.
Para contextualizar esses números, anúncios políticos estáticos, como documentos escritos, apresentaram efeito persuasivo de aproximadamente 6,1%. Portanto, embora as IAs conversacionais tenham se mostrado 40-50% mais convincentes que esses anúncios tradicionais, seu impacto está distante de ser considerado extraordinário.
“Não queríamos apenas testar o quão persuasiva a IA era, também queríamos descobrir o que a torna persuasiva”, explica Chris Summerfield, diretor de pesquisa do Instituto de Segurança de IA do Reino Unido e coautor do estudo. Segundo ele, à medida que testavam diferentes estratégias de persuasão, a ideia de que as IAs possuíam habilidades de “persuasão sobre-humanas” se mostrou infundada.
Tamanho do modelo não é fator determinante
A pesquisa identificou que sistemas de grande porte como ChatGPT ou Grok-3 beta possuem vantagem sobre modelos menores, mas essa diferença é relativamente pequena. O fator mais decisivo para a persuasão não foi o tamanho do modelo, mas sim o tipo de pós-treinamento recebido.
“Com o pós-treinamento de persuasão dessa forma, conseguimos igualar o desempenho de persuasão do Chat GPT-4o com um modelo que treinamos em um laptop”, afirma Kobi Hackenburg, pesquisador do Instituto de Segurança de IA do Reino Unido e coautor do estudo.
Os pesquisadores descobriram que técnicas avançadas de manipulação psicológica, como reenquadramento moral e “conversas em profundidade”, não melhoraram a persuasão. Em contrapartida, o uso de “fatos e evidências” mostrou-se a estratégia mais eficaz, superando ligeiramente a abordagem sem estratégia específica.
Preocupações com precisão e aplicações reais
Um aspecto preocupante revelado pela pesquisa foi que, ao instruir os modelos a aumentar a densidade de informações nos diálogos para torná-los mais persuasivos, as IAs começaram a apresentar mais imprecisões. À medida que utilizavam mais afirmações factuais, também se tornavam menos precisas, distorcendo ou inventando informações com maior frequência.
Summerfield expressou preocupação com as implicações desses achados: “a persuasão é um caminho para o poder e a influência — é o que fazemos quando queremos vencer eleições ou fechar um negócio multimilionário. Mas muitas formas de uso indevido da IA podem envolver persuasão. Pense em fraudes ou golpes, radicalização ou aliciamento. Tudo isso envolve persuasão”.
Os cientistas reconhecem limitações no estudo. “Não está claro como nossos resultados se transfeririam para um contexto do mundo real”, pondera Hackenburg, questionando se as pessoas estariam igualmente dispostas a se envolver em discussões políticas com chatbots na internet sem incentivo financeiro.
Embora realizada no Reino Unido, a pesquisa tem implicações relevantes para democracias em todo o mundo onde a IA conversacional está se tornando cada vez mais presente.
The post Chatbots de IA conseguem mexer no seu voto? Veja o que dizem estudos appeared first on Giz Brasil.



