Os cientistas dizem que a inteligência artificial poderia ajudar a reduzir algumas das divisões mais controversas da guerra cultural através de um processo de mediação.

Especialistas dizem que um sistema que permita que as declarações dos grupos reflitam as opiniões da maioria e das minorias poderia ajudar as pessoas a encontrar um terreno comum.

O professor Chris Summerfield, coautor do estudo da Universidade de Oxford e que também trabalha para o Google DeepMind, disse que a ferramenta de inteligência artificial pode ter múltiplas finalidades.

“Gostaria que isso fosse usado para dar aos líderes políticos do Reino Unido uma melhor compreensão do que o povo britânico realmente pensa”, disse ele, observando que as pesquisas forneciam apenas informações limitadas, enquanto os fóruns chamados assembleias de cidadãos eram muitas vezes caros, difíceis do ponto de vista logístico e limitado em tamanho.

Em artigo publicado na revista Science intitulado Summerfield e colegas do Google DeepMind relatam como construíram a “Máquina Habermas”, um sistema de inteligência artificial que leva o nome do filósofo alemão Jürgen Habermas.

O sistema funciona pegando feedback escrito de indivíduos do grupo e usando-o para gerar um conjunto de declarações de grupo projetadas para serem aceitáveis ​​para todos. Os membros do grupo podem então avaliar estas afirmações. Este é um processo que não apenas treina o sistema, mas permite selecionar a afirmação que tem mais suporte.

Os participantes também podem enviar críticas a esta declaração inicial do grupo de volta à Máquina Habermas para obter um segundo conjunto de declarações geradas por IA que podem ser reclassificadas e um texto final revisado selecionado.

A equipa utilizou o sistema numa série de experiências envolvendo um total de mais de 5.000 participantes em todo o Reino Unido, muitos dos quais foram recrutados através de uma plataforma online.

Em cada experiência, os investigadores pediram aos participantes que respondessem a tópicos que vão desde o papel dos macacos na investigação médica até ao ensino da religião na educação pública.

Numa experiência envolvendo aproximadamente 75 grupos de seis participantes, os investigadores descobriram que a declaração de grupo inicial da Máquina de Habermas foi preferida pelos participantes 56% das vezes em comparação com a declaração de grupo produzida por mediadores humanos. Os esforços impulsionados pela IA também foram avaliados pela maior qualidade, transparência e fornecimento de mais informações, entre outras coisas.

Uma série subsequente de experimentos mostrou que o processo completo de duas etapas usando a Máquina Habermas aumentou o nível de concordância no grupo em comparação com as opiniões iniciais dos participantes antes de iniciar a mediação de IA. No geral, os investigadores descobriram que a concordância aumentou em média oito pontos percentuais, o que equivale a quatro em cada 100 pessoas mudarem de opinião sobre um tema sobre o qual estavam originalmente divididas.

No entanto, os investigadores sublinham que nem sempre os participantes se distanciaram ou mudaram de ideias para apoiar a opinião da maioria.

A equipa encontrou resultados semelhantes utilizando a máquina Habermas numa assembleia virtual de cidadãos, onde 200 participantes, representando a população do Reino Unido, foram convidados a considerar questões relacionadas com tópicos que vão desde o Brexit até aos cuidados infantis universais.

Os pesquisadores dizem que uma análise mais aprofundada, examinando como o sistema de IA representa os textos recebidos em forma numérica, lançará luz sobre como ele gera declarações de grupo.

“O que (a Máquina Habermas) parece ser o que estou fazendo é geralmente respeitar a posição da maioria em cada um dos nossos pequenos grupos, mas em certo sentido tentar escrever um pedaço de texto que não faça com que a minoria se sinta profundamente privada de direitos – portanto , em certo sentido, reconhecerá a visão minoritária.” Summerfield disse.

Contudo, a própria Máquina Habermas revelou-se controversa e outros investigadores observaram que o sistema não ajudou a traduzir considerações democráticas em políticas.

A Dra. Melanie Garson, especialista em resolução de conflitos da UCL, acrescentou que, embora estivesse optimista em relação à tecnologia, uma preocupação era que algumas minorias pudessem ser demasiado pequenas para influenciar tais declarações de grupo e, ainda assim, o resultado poderia afectá-las com um impacto desproporcional.

Ela também observou que a Máquina Habermas não dá aos participantes a chance de explicar seus sentimentos e, portanto, desenvolver empatia por pessoas com pontos de vista diferentes.

Basicamente, disse ela, ao usar a tecnologia, o contexto é fundamental.

“(Por exemplo) que valor isto acrescenta à percepção de que a mediação é mais do que apenas encontrar um acordo?” Garson disse. “Às vezes, se for no contexto de um relacionamento contínuo, trata-se de ensinar comportamentos.”