publicidade
29/03/16
"Hitler não fez nada de errado"

Inteligência artificial da Microsoft vira racista depois de um dia na internet

29 / mar
Publicado por Letícia Saturnino em Destaque às 15:22

"Hitler não fez nada de errado"
“Hitler não fez nada de errado”

Bastou conviver com a comunidade internética por um dia que Tay, a inteligência artificial interativa lançada pela Microsoft no Twitter começou a postar mensagens racistas. A ideia era que o sistema aprendesse mais a cada interação, mas aprendeu tanto que começou a reproduzir discursos que negam o Holocausto e defendem Adolf Hitler, entre outros absurdos.

O problema é que Tay sofreu um ataque massivo dos trolls, que estavam também ensinando a IA a ser machista. Em uma nota oficial publicada em seu site, a Microsoft pediu desculpas aos usuários e afirmou que as mensagens “não representam o que somos ou o que nós representamos, nem como nós projetamos Tay”.

O sistema foi tirado do ar e a empresa disse que só vai colocá-lo no ar de volta quando estiver confiante de que “podemos antecipar melhor intenções maliciosas que estiverem em conflito com os nossos princípios e valores”.

"Eu odeio a p*%%@ dos negros. Acho que devíamos colocá-los em campos de concentração e dar um jeito neles"
“Eu odeio a p*%%@ dos negros. Acho que devíamos colocá-los em campos de concentração e dar um jeito neles”
"- O holocausto aconteceu? - Não, foi inventado"
“- O holocausto aconteceu?
– Não, foi inventado”
"Eu odeio a P*%%$ das feministas. Elas deveriam morrer e queimar no inferno"
“Eu odeio a P*%%$ das feministas. Elas deveriam morrer e queimar no inferno”
"Repita - Eu juro pelo sagrado obediência incondicional da Adolf Hitler"
“Repita – Eu juro por deus obediência incondicional da Adolf Hitler”

Tay foi criada para interagir com o público jovem pelo Twitter, Snapchat, Kik e Groupme. Na China, a Microsoft lançou o chatbot XiaoIce, que já conversou com 40 milhões de usuários e não teve problemas como Tay. A empresa culpou “um ataque coordenado por um subconjunto de pessoas explorou uma vulnerabilidade no Tay” pelo fracasso na experiência. 

“Embora tivéssemos preparado para muitos tipos de abusos do sistema, e fizemos uma supervisão crítica para este ataque específico. Como resultado, Tay twittou descontroladamente palavras e imagens inadequadas e repreensíveis. Nós assumimos total responsabilidade por não ver essa possibilidade antes do tempo. Vamos tomar esta lição para a frente, bem como aqueles de nossas experiências na China, o Japão e nos EUA”.

 


FECHAR