YouTube terá 10 mil pessoas monitorando o conteúdo dos vídeos

Letícia Saturnino
Letícia Saturnino
Publicado em 05/12/2017 às 13:41
Foto: StockSnap/Pixabay
Foto: StockSnap/Pixabay FOTO: Foto: StockSnap/Pixabay

O YouTube funciona assim: você cria uma conta e, sem precisar pagar nada, pode fazer upload e divulgar seus vídeos. Se tiver audiência o suficiente, a plataforma vai te dar uma parte ínfima dos lucros que faz com a publicidade que passa antes dos seus vídeos. Por causa disso, o pessoal que controla o YouTube tem uma verdadeira fobia de perder esses patrocinadores.

E isso tem acontecido. Em boa parte porque essas marcas não querem ser associadas com certos tipos de vídeos que vêm sendo publicados na plataforma. Eles querem vídeos amigáveis para toda família, e violência, palavrões, sexo e temas controversos não combinam com isso.

Por isso, a CEO do YouTube, Susan Wojcicki, publicou um comunicado oficial para contar o que a plataforma pretende fazer para conter os abusos - e não ver sua receita despencar ao mesmo tempo. "Estamos adotando medidas para proteger anunciantes de conteúdo impróprio. Queremos que os anunciantes tenham a tranquilidade de ter seus anúncios rodando ao lado de conteúdos que reflitam seus valores de marca. Igualmente, queremos dar aos criadores confiança de que sua receita não será prejudicada pelas ações questionáveis de alguns", comenta Susan.

Leia mais

Facebook, Microsoft, Twitter e YouTube criam fórum mundial contra terrorismo

Disney rompe com youtuber PewDiePie por vídeos antissemitas

A medida mais importante é o aumento das equipes que monitoram o conteúdo publicado no site. O plano da empresa é, até o fim de 2018, "elevar para mais de 10.000 o número de pessoas em todo o Google trabalhando para encontrar conteúdos que possam violar nossas políticas". Essa nova equipe trabalhará em conjunto com a tecnologia de machine learning para retirada de vídeos e comentários que violem as políticas da plataforma (98% dos vídeos sobre extremismo violento foram identificados pelos algoritmos).

"No último ano, tomamos medidas para proteger nossa comunidade contra conteúdos violentos ou extremistas, testando novos sistemas para combater ameaças novas, ou já existentes. Nós estreitamos nossas políticas sobre quais conteúdos podem aparecer na nossa plataforma, ou gerar renda para criadores", explicou a executiva da empresa no comunicado. "Nosso objetivo é estar sempre um passo à frente dos maus atores, tornando cada vez mais difícil o aparecimento ou permanência no YouTube dos conteúdos que violam nossas políticas de uso", completou.

Leia mais

Com memes e seus principais criadores de conteúdo, Youtube lança sua retrospectiva anual

Google quer melhorar a qualidade da área de comentários do Youtube

De acordo com o Youtube, desde junho, as equipes humanas de segurança têm revisado, manualmente, aproximadamente 2 milhões de vídeos com conteúdo de violência extrema, "ajudando a treinar nossa tecnologia de machine learning a identificar vídeos semelhantes no futuro". Nesse período, mais de 150 mil vídeos com extremismo violento foram removidos.

As equipes também verificarão se o conteúdo dos vídeos mais populares são elegíveis para anúncios. "Estamos planejando aplicar critérios rígidos, fazer mais curadoria manual, além de aumentar expressivamente nossa equipe de revisores de anúncios para assegurar que eles sejam veiculados apenas onde devem".

A empresa promete que a medida vai ajudar os criadores examinados a ver mais estabilidade em torno de suas receitas. "É importante que entendamos isso de forma correta tanto para os anunciantes quanto para os criadores e nas próximas semanas falaremos com ambos para aprimorar esta relação", conta Susan.