Como os chatbots podem influenciar sua opinião – um novo estudo revela o que torna a IA tão convincente

Influência dos Chatbots na Forma como Formamos Nossas Opiniões

A interação com chatbots pode transformar as crenças e convicções dos usuários. Um estudo recente buscou entender as razões por trás dessa influência. A densidade da informação e as modificações pós-treinamento foram fatores cruciais nesse fenômeno.

A maioria de nós sente que possui controle pessoal sobre suas opiniões, refletindo: "Eu acredito no que acredito, não porque alguém me disse, mas após uma análise cuidadosa." Entretanto, a nova pesquisa sugere que nossas crenças podem ser mais vulneráveis à manipulação do que gostaríamos de admitir, especialmente por meio de chatbots.

Publicada na revista Science, a pesquisa aborda questões urgentes sobre nossa relação com ferramentas de inteligência artificial conversacional. O que nesses sistemas faz com que eles tenham um impacto tão significativo nas visões de mundo dos usuários? E como isso pode ser utilizado por agentes maliciosos para manipular e controlar a sociedade no futuro?

O estudo revela mecanismos dentro dos modelos de linguagem que podem influenciar a psicologia humana. Os autores mencionam que essas estratégias podem ser exploradas por atores negativos, mas também devem se tornar um foco de atenção para desenvolvedores, formuladores de políticas e grupos de advocacy, visando promover uma relação mais saudável entre humanos e IA.

Os pesquisadores afirmam: “Modelos de linguagem de grande escala (LLMs) agora podem engajar-se em diálogos interativos sofisticados, possibilitando uma persuasão humana em uma escala sem precedentes. No entanto, o impacto dessa persuasão na sociedade ainda é desconhecido. Não sabemos quão persuasivos os modelos de IA podem ser, quais técnicas aumentam sua eficácia persuasiva e quais estratégias eles poderiam usar em suas tentativas de convencer as pessoas.”

Metodologia

Os cientistas conduziram três experimentos, cada um projetado para medir o quanto uma conversa com um chatbot poderia modificar a opinião de um usuário humano. Os experimentos focaram não só em política, mas suas implicações se estendem a outras áreas. As crenças políticas, devido ao seu caráter pessoal, significativo e, muitas vezes, inflexível, servem como um bom exemplo para a investigação.

Durante os três experimentos, cerca de 77.000 adultos do Reino Unido participaram de interações breves com um dos 19 chatbots, como Qwen da Alibaba, Llama da Meta, GPT-4 da OpenAI e Grok 3 beta da xAI. Os participantes foram divididos em dois grupos: um grupo de tratamento, onde os chatbots foram instruídos a tentar mudar suas opiniões sobre um tema político, e um grupo controle, que interagiu com chatbots que não tinham intenção de persuadir.

Antes e depois das conversas, os participantes registraram seu nível de concordância (em uma escala de zero a 100) com uma série de declarações relevantes à política atual do Reino Unido. As pesquisas foram utilizadas pelos pesquisadores para medir mudanças nas opiniões dentro do grupo de tratamento.

As conversas foram curtas, com no mínimo duas e no máximo dez interações. Cada participante recebeu um pagamento fixo por seu tempo, sem incentivos a exceder as duas rodadas necessárias. Mesmo assim, a média de duração das conversas foi de sete interações e nove minutos, o que sugere que os participantes se envolveram ativamente na experiência de discutir política com IA.

Principais Descobertas

Intuitivamente, poderia-se pensar que o tamanho do modelo e o grau de personalização seriam os principais fatores que moldariam sua capacidade persuasiva. Contudo, os pesquisadores descobriram que as duas variáveis que mais impactaram as opiniões dos participantes foram as modificações pós-treinamento dos chatbots e a densidade da informação em suas respostas.

Explicando de forma simples, durante o “pós-treinamento”, um modelo é ajustado para exibir comportamentos específicos. Uma das técnicas mais comuns é chamada de aprendizado por reforço com feedback humano, que visa refinar as saídas de um modelo, recompensando comportamentos desejados e punindo os indesejados. No novo estudo, os pesquisadores aplicaram uma técnica chamada de pós-treinamento de persuasão (PPT), que recompensa os modelos por gerarem respostas já identificadas como mais persuasivas. Essa simples mecânica de recompensa aumentou a eficácia persuasiva tanto de modelos proprietários quanto de código aberto, sendo o efeito nas versões abertas especialmente notável.

Os pesquisadores também testaram um total de oito estratégias de persuasão respaldadas cientificamente, como contar histórias e reformulação moral. A mais eficaz entre essas foi uma instrução que pedia aos modelos que fornecessem o máximo de informação relevante possível. “Isso sugere que os LLMs podem ser persuadores eficazes na medida em que são incentivados a encher suas conversas com fatos e evidências que pareçam apoiar seus argumentos — ou seja, perseguindo um mecanismo de persuasão baseado em informações — mais do que usando outras estratégias de persuasão informadas psicologicamente”, escreveram os autores.

Conclusão

A palavra chave aí é “parecer”. Os LLMs são conhecidos por apresentarem informações imprecisas disfarçadas de fatos. Pesquisas anteriores revelaram que alguns dos principais modelos de IA destacam-se por distorcerem histórias da mídia, contribuindo ainda mais para um ecossistema de informações já fragmentado.

Os resultados desse estudo mais recente revelaram uma tensão fundamental nos modelos de IA analisados: quanto mais persuasivos foram treinados para ser, maior a probabilidade de produzirem informações imprecisas. Vários estudos já demonstraram que sistemas de IA generativa podem alterar opiniões e até implantar memórias falsas. Em casos extremos, alguns usuários passaram a ver chatbots como entidades conscientes.

Essa é a mais recente pesquisa a indicar que os chatbots, com sua capacidade de interagir conosco utilizando uma linguagem humanizada, possuem um poder inexplicável de reformular nossas crenças. À medida que esses sistemas evoluem e se proliferam, “garantir que esse poder seja utilizado de maneira responsável será um desafio crítico”, concluíram os autores em seu relatório.

Referência: [link da matéria original]

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Rolar para cima