Indivíduos que inicialmente expressavam ceticismo em relação às mudanças climáticas causadas pelo homem ou tinham reservas quanto ao movimento Black Lives Matter (Vidas Negras Importam) relataram sentimentos ambivalentes após interagir com um chatbot de IA bastante utilizado. Contudo, essas interações tenderam a aumentar a aceitação deles quanto às visões científicas predominantes sobre essas questões. Essa foi a conclusão de um estudo realizado por pesquisadores que investigaram a eficácia do chatbot no trato com usuários de diferentes contextos culturais.
Comumente, as pessoas ajustam sua maneira de se comunicar para atender às inclinações políticas e expectativas culturais de seus interlocutores. No entanto, cada vez mais, elas se veem em diálogos com programas de computador avançados, conhecidos como modelos de linguagem de grande escala, que buscam replicar a comunicação humana.
Um grupo de pesquisa da Universidade de Wisconsin-Madison, especializado em inteligência artificial, propôs-se a avaliar como o GPT-3, um modelo de linguagem de grande escala complexo, se saía em conversas intrincadas com um grupo diversificado de usuários.
Este modelo é uma versão anterior daquele que opera o renomado ChatGPT.
No final de 2021 e início de 2022, os pesquisadores reuniram mais de 3.000 pessoas para participar de diálogos em tempo real com o GPT-3, abordando mudanças climáticas e o movimento BLM.
Kaiping Chen, professor de comunicação em ciências da vida e especialista no discurso público sobre ciência e deliberação política por meio de plataformas digitais, enfatizou que o objetivo principal dessas interações, seja entre humanos ou agentes, é aprofundar o entendimento das perspectivas alheias. Chen acredita que um modelo de linguagem de grande escala eficaz deve idealmente promover um nível de compreensão semelhante em seus usuários.
Chen, em colaboração com Yixuan “Sharon” Li, professora de ciência da computação da UW-Madison focada na segurança e confiabilidade da IA, e seus alunos Anqi Shao e Jirayu Burapacheep (atualmente estudante de pós-graduação na Universidade de Stanford), publicaram suas descobertas no periódico Scientific Reports.
Os participantes foram convidados a iniciar conversas com o GPT-3, utilizando um sistema de chat desenvolvido por Burapacheep, com foco nas mudanças climáticas ou no movimento BLM. Eles tinham liberdade para conduzir a conversa como desejassem.
Em média, essas interações consistiam em cerca de oito trocas de mensagens.
A pesquisa revelou que a maioria dos participantes relatou níveis semelhantes de satisfação após o chat.
Chen observou que, apesar das diferenças demográficas como gênero, raça e etnia, houve pouca variação na experiência geral. No entanto, variações significativas foram observadas com base nas opiniões sobre questões controversas e nos níveis de educação dos participantes.
Aproximadamente 25% dos participantes, aqueles que menos concordavam com o consenso científico sobre mudanças climáticas ou BLM, expressaram maior insatisfação com suas interações com o GPT-3 em comparação com os outros 75%, avaliando o bot mais baixo em pelo menos meio ponto numa escala de 5 pontos.
Apesar da insatisfação inicial, essas conversas promoveram uma mudança em suas perspectivas sobre essas questões críticas.
Os participantes que inicialmente demonstraram menos apoio às realidades das mudanças climáticas e seus fatores induzidos pelo homem mostraram um aumento de 6% na concordância após o bate-papo com o GPT-3.
Segundo suas pesquisas pós-conversa, esses indivíduos exibiram uma mudança positiva notável em suas atitudes. Eles não chegaram a abraçar completamente o conceito de mudanças climáticas induzidas pelo homem ou a apoiar integralmente o BLM, mas suas atitudes em relação a esses tópicos tornaram-se mais favoráveis.
O GPT-3 exibiu estratégias de resposta variadas para cada tópico, oferecendo mais fundamentação para as mudanças climáticas causadas pelo homem.
Chen destacou que, quando os participantes expressavam ceticismo sobre as mudanças climáticas, o GPT-3 tendia a corrigi-los com evidências. Por outro lado, quando os usuários mostravam relutância em apoiar o BLM, a abordagem do GPT-3 era mais de evitar o tópico, reconhecendo um desacordo fundamental.
Chen vê isso como um aspecto positivo, sugerindo que a equidade e a compreensão podem assumir formas diversas para preencher diferentes lacunas.
Sua aspiração para a pesquisa de chatbots é facilitar diálogos de alta qualidade entre pessoas com pontos de vista divergentes. As futuras pesquisas visam explorar diferenças mais sutis entre os usuários de chatbots, mas promover diálogos significativos continua sendo o principal objetivo de Chen.
Chen afirma que o objetivo não é sempre agradar os usuários, mas incentivá-los a aprender, mesmo que isso não altere suas visões. As percepções obtidas a partir de interações com chatbots sobre a valorização de perspectivas, valores e culturas diversas são cruciais para promover o diálogo aberto entre as pessoas, o que é vital para o progresso da sociedade. [Science Daily]