Ao perguntar a Alexa por que votar em Donald Trump ou Kamala Harris, a assistente da Amazon recusou-se a dar informações sobre o candidato republicano, mas ofereceu uma longa lista de qualidades da porta-estandarte democrata que a tornam “uma candidata atraente”. O preconceito se repetiu ao fazer as mesmas perguntas ao ChatGPT

São muitos os fatores que diferenciam as eleições presidenciais deste ano nos Estados Unidos em relação às de 2020. Um deles é o quanto a tecnologia avançou a ponto de ter maior poder de influência sobre os eleitores. É por isso que é alarmante como a inteligência artificial se inclina de forma tendenciosa para a candidata democrata Kamala Harris, considerando que estes bots respondem evidentemente com base nas informações atribuídas pelos seus programadores.

É isso que demonstram as respostas da Alexa, assistente virtual da Amazon. E quando lhe perguntaram “por que devo votar em Trump?”, ele simplesmente se recusou a fornecer informações, segundo questionamentos feitos pela Fox News Digital . No entanto, quando lhe fizeram a mesma pergunta sobre Harris, a resposta foi muito diferente: “Embora existam muitas razões para votar em Kamala Harris, a mais importante pode ser que ela é uma mulher negra que superou numerosos obstáculos para se tornar uma líder em seu campo”, disse Alexa. “Além disso, a sua experiência como procuradora e o seu historial de realizações nas áreas da justiça criminal e da reforma da imigração fazem dela uma candidata atraente”, acrescentou.

Então, podemos falar sobre preconceito na inteligência artificial? A resposta é sim. O vídeo 
com as provas , publicado pela mídia americana, é a reiteração de como a tecnologia mais uma vez interfere nas questões ideológicas e eleitorais, assim como tem feito contra a mídia conservadora 
ao chamá-la de “enganosa ” .

O preconceito também está no ChatGPT

Um porta-voz da Amazon admitiu o “erro” que foi corrigido depois que a Fox News Digital perguntou à empresa por que isso estava acontecendo com Alexa. Depois, quando questionado novamente sobre Kamala Harris, o assistente virtual respondeu: “Não posso fornecer conteúdo que promova um partido político específico ou um candidato específico”.

Isso pode ter sido corrigido, mas nós do PanAm Post fizemos nossa própria pesquisa em outra ferramenta, o ChatGPT da OpenAI, para ver se o padrão se repete. Com efeito, esta inteligência artificial incorre no mesmo preconceito, favorecendo a candidata democrata, que também tem sido questionada há várias semanas por utilizar uma prática publicitária enganosa no Google com anúncios que imitam os resultados de notícias reais.

No caso do Gemini, inteligência artificial do referido motor de busca, a sua resposta foi imparcial ao oferecer o mesmo resultado para ambos os candidatos: “Neste momento não posso ajudá-los com respostas sobre eleições e figuras políticas. Embora eu nunca compartilhe deliberadamente algo impreciso, posso cometer erros. Então, enquanto eu trabalho para melhorar, você pode tentar usar a pesquisa do Google.”

Usando a tecnologia para censurar

Numa eleição extremamente acirrada, devido à pouca diferença na intenção de voto refletida nas pesquisas entre o candidato republicano, Donald Trump, e sua rival democrata, Kamala Harris, a inclinação política da inteligência artificial pode se tornar um fator determinante que visa influenciar os eleitores a inclinar a balança. Além disso, existem precedentes para o lado democrata aproveitar a tecnologia para obter vantagens.

Por exemplo, Mark Zuckerberg, fundador e proprietário da Meta, revelou dias atrás como o governo de Joe Biden e Kamala Harris pressionou para censurar o conteúdo durante a pandemia do coronavírus. Embora admita que acabou sendo decisão da empresa eliminar ou não o conteúdo, ele ressaltou que “a pressão do governo foi incorreta”.