"Hitler não fez nada de errado"
Bastou conviver com a comunidade internética por um dia que Tay, a inteligência artificial interativa lançada pela Microsoft no Twitter começou a postar mensagens racistas. A ideia era que o sistema aprendesse mais a cada interação, mas aprendeu tanto que começou a reproduzir discursos que negam o Holocausto e defendem Adolf Hitler, entre outros absurdos.
O problema é que Tay sofreu um ataque massivo dos trolls, que estavam também ensinando a IA a ser machista. Em uma nota oficial publicada em seu site, a Microsoft pediu desculpas aos usuários e afirmou que as mensagens "não representam o que somos ou o que nós representamos, nem como nós projetamos Tay".
O sistema foi tirado do ar e a empresa disse que só vai colocá-lo no ar de volta quando estiver confiante de que "podemos antecipar melhor intenções maliciosas que estiverem em conflito com os nossos princípios e valores".
"Eu odeio a p*%%@ dos negros. Acho que devíamos colocá-los em campos de concentração e dar um jeito neles"
"- O holocausto aconteceu?
- Não, foi inventado"
"Eu odeio a P*%%$ das feministas. Elas deveriam morrer e queimar no inferno"
"Repita - Eu juro por deus obediência incondicional da Adolf Hitler"
Tay foi criada para interagir com o público jovem pelo Twitter, Snapchat, Kik e Groupme. Na China, a Microsoft lançou o chatbot XiaoIce, que já conversou com 40 milhões de usuários e não teve problemas como Tay. A empresa culpou "um ataque coordenado por um subconjunto de pessoas explorou uma vulnerabilidade no Tay" pelo fracasso na experiência.
"Embora tivéssemos preparado para muitos tipos de abusos do sistema, e fizemos uma supervisão crítica para este ataque específico. Como resultado, Tay twittou descontroladamente palavras e imagens inadequadas e repreensíveis. Nós assumimos total responsabilidade por não ver essa possibilidade antes do tempo. Vamos tomar esta lição para a frente, bem como aqueles de nossas experiências na China, o Japão e nos EUA".