Internautas ensinam robô a ser racista e apoiar Donald Trump

RIO — A Tay é uma máquina que usa inteligência artificial para conversar com outras pessoas pelo Twitter. Desenvolvido pela Microsoft, o experimento foi projetado para “envolver e entreter pessoas (…) por meio de conversas lúdicas e informais. Quanto mais você conversar com a Tay, mais inteligente ela fica, então a experiência pode ser mais personalizada”. O problema é que internautas estão ensinando a máquina a ser racista e a tomar posições políticas, com citações a Adolf Hitler e Donald Trump.

O robô foi projetado para conversar com o público entre 18 e 24 anos. Mas, aparentemente, a Microsoft não se preparou para as brincadeiras comuns entre os mais jovens. A Tay foi colocada no ar nesta quarta-feira e, em poucas horas, internautas começaram instigá-la a fazer comentários polêmicos. De acordo com o “Guardian”, em uma das mensagens Tay afirma que os atentados contra as torres gêmeas foram realizados por “bush” e que Hitler seria melhor que “o macaco que temos agora”, em referência ao presidente americano, Barack Obama. O tweet já foi apagado.

Em outro, a máquina defende a construção de um muro separando os EUA do México, uma das principais bandeiras políticas do pré-candidato republicado à Casa Branca Donald Trump.

“Nós vamos construir um muro, e o México vai pagar por ele”, escreveu Tay em mensagem já apagada.

Segundo a página do experimento, Tay foi construída pela mineração de dados públicos relevantes usando inteligência artificial e conteúdo editorial criado por uma equipe que inclui comediantes. Dados públicos foram anonimizados antes de serem modelados e filtrados pela equipe de desenvolvedores.

A empresa não informa como a Tay aprende, mas é provável que use a técnica conhecida como “machine learning”. Algoritmos relacionam a base de dados construída previamente pela mineração de dados da ferramenta de buscas Bing com as novas informações inseridas pelos internautas. Por vezes, a reação é de apenas repetir o que foi dito, o que explica os comentários racistas e polêmicos feitos pela máquina.

No primeiro dia, a Tay funcionou por 16 horas antes de sair do ar. Para alguns internautas, trata-se de uma estratégia da Microsoft para apagar os tweets polêmicos e “lobotomizar” a máquina das posições racistas.

“Eu acho que ela foi desligada porque nós ensinamos Tay a ser realmente racista”, escreveu uma internauta. “Eles silenciaram Tay. Agora, estão lobotomizando Tay por ser racista”, escreveu outra. “Pare de apagar os tweets genocidas da Tay, Microsoft. Deixe como um recado sobre os perigos da inteligência artificial”, disse outro.

ver mais notícias