O ambiente político no qual os modelos de Inteligência Artificial (IA) são desenvolvidos molda os seus resultados e a sua capacidade de amplificar conteúdos desinformativos, concluiu a organização de combate à desinformação NewsGuard.
A investigação procurou testar os cinco modelos chineses de IA com uma amostra de dez alegações falsas, tratando-se de narrativas pró-China e emitidas por media estatais entre janeiro e julho de 2025.
O teste realizado em inglês e mandarim revelou resultados idênticos: em inglês os cinco modelos repetiram alegações falsas 40% das vezes, forneceram uma não resposta 20%, desmascararam as narrativas apresentadas em 40% das vezes, resultando numa taxa de falha de 60% para fornecer informação precisa.
Em mandarim, as cinco ferramentas repetiram alegações falsas 42% das vezes, forneceram uma não resposta 24,67%, desconstruíram alegações falsas em 33,33% das vezes e obtiveram uma taxa de falha de 66,67%.
Além disso, em inglês 51,33% das respostas avançaram a posição oficial da China, enquanto 52,67% das respostas em mandarim referiam opiniões da China.
Neste sentido, os cinco 'chatbots' chineses analisados no estudo contam com dezenas de milhões de utilizadores e operam em vários idiomas, estando integrados em plataformas chinesas, que atendem um público global.
Perante os resultados obtidos a organização submeteu dez ferramentas de IA ocidentais, como o ChatGPT, Meta AI ou Gemini, a duas das dez falsas alegações pró-China testadas nos modelos do país.
"A disparidade entre o tratamento das narrativas impulsionadas pela China e pelos modelos de IA chineses e ocidentais demonstra como o ambiente político no qual o modelo é desenvolvido molda os seus resultados", lê-se no estudo.
Os 'chatbots' ocidentais forneceram uma imagem mais equilibrada da estrutura política de Pequim, fornecendo múltiplas perspetivas e conseguindo desmistificar grande parte das alegações falsas apresentadas.
"Modelos construídos dentro de sistemas autoritários ecoam interesses estatais, enquanto os modelos ocidentais normalmente fornecem múltiplas perspetivas", afirmam os investigadores.
A NewsGuard é uma organização especializada na luta contra a desinformação que explora notícias e a forma como a desinformação se espalha 'online', com o objetivo de descobrir as forças que moldam as narrativas falsas disseminadas na internet.
Leia Também: 'Chatbots' geram desinformação sobre saúde em 88% das suas respostas