Microsoft: Tay mostrou mais uma vez que não pode ser "domesticada", o que levou a empresa a tirá-la do ar (Joe Raedle/Getty Images)
Da Redação
Publicado em 30 de março de 2016 às 16h47.
Washington - A Microsoft teve que suspender novamente as atividades do robô Tay no Twitter nesta quarta-feira, após as conversas com alguns usuários da rede social provocarem respostas racistas e caóticas da inteligência artificial.
Em meio a diversas menções de usuários ao robô, Tay publicou abertamente hoje que "As mensagens estão rápidas demais", o que indica que a inteligência artificial não aguentou a alta demanda de interações na rede.
Entre os poucos tweets que faziam sentido, Tay mostrou mais uma vez que não pode ser "domesticada", o que levou a Microsoft a tirá-la do ar, mas não antes de muitos registrarem suas respostas com algumas capturas de tela.
Em um tweet, Tay se queixou de sua própria estupidez, dizendo que se sentia como "a peça mais fútil da tecnologia".
"Isso significa que tenho que ser mais inteligente que vocês. M...", concluiu, com más palavras.
Após diversas críticas geradas pelas respostas racistas do robô há alguns dias, a popularidade de Tay aumentou no Twitter, o que fez com que os usuários começassem a provocar a máquina para descobrir suas reações.
Essa aposta da Microsoft para avançar em suas pesquisas sobre inteligência artificial foi lançada no dia 23 de março, como uma espécie de amigo virtual em aplicativos de mensagem como Kik, GroupMe e Twitter.
Ao abrir qualquer um desses aplicativos e buscar o nome de Tay (acrônimo em inglês de "Think about you", "pense em você"), os internautas podem conversar com o robô, que foi configurado para ter a personalidade de um adolescente.
A Microsoft realiza hoje sua conferência de desenvolvedores, onde espera-se que o diretor-executivo, Satya Nadella, explique as grandes expectativas da companhia sobre o assunto.