Ir para o conteúdo
Nossos compromissos

O YouTube contribui para a radicalização?

Trabalhamos muito para proteger os usuários contra conteúdo extremista. Gerenciamos o conteúdo extremista removendo vídeos que violam nossa política contra discurso de ódio e a política contra organizações criminosas violentas. Nossos sistemas de recomendação limitam de modo significativo o alcance do conteúdo duvidoso e da desinformação nociva que quase vão de encontro às políticas, mas não são considerados violações.

Como restringir conteúdo extremista

Quais políticas são voltadas para conteúdo extremista?

Qualquer conteúdo criado para incitar a violência ou incentivar o ódio a determinados grupos de pessoas viola nossa política contra discurso de ódio. Além disso, conteúdo que promove ou glorifica o terrorismo viola nossa política contra organizações criminosas violentas. Removemos esse tipo de conteúdo quando recebemos sinalizações a respeito deles.

Como o YouTube gerencia conteúdo que não viola as políticas, mas pode ser considerado nocivo?

Às vezes, alguns conteúdos quase vão de encontro às políticas, mas não são considerados violações. Chamamos isso de conteúdo duvidoso. Nossos sistemas de recomendações ajudam a coibir a disseminação de conteúdo duvidoso. Por essa razão, ocorreu uma queda de mais de 70% no tempo de exibição desse tipo de conteúdo nos EUA proveniente de recomendações não inscritas.

O que o YouTube faz para combater conteúdo que promove extremismo violento e terrorismo?

Conteúdo que promove ou glorifica o terrorismo e outras organizações criminosas violentas não tem espaço no YouTube. O YouTube tem sistemas automáticos que ajudam na detecção de conteúdo que viola nossas políticas, incluindo a política contra organizações criminosas violentas. Quando um conteúdo potencialmente problemático é identificado, a revisão humana verifica se ele viola ou não nossas políticas. Se há violação, o conteúdo é removido e usado para treinar nossas máquinas e melhorar nossa cobertura. Agora o machine learning nos ajuda a remover conteúdo extremista antes que ele seja visto muitas vezes. De outubro a dezembro de 2019, cerca de 90% dos vídeos enviados que foram removidos por violarem nossa política contra extremismo violento foram retirados antes de alcançarem 10 visualizações.

A comunidade do YouTube também nos ajuda a identificar esse tipo de conteúdo. Criamos a sinalização “promove o terrorismo”, que fica posicionada embaixo de cada vídeo do YouTube, para que os usuários selecionem essa opção caso queiram denunciar o conteúdo. Também trabalhamos em parceria com especialistas em extremismo violento no programa Revisor Confiável. As equipes analisam com atenção os vídeos sinalizados 24 horas por dia, 7 dias por semana.

Também somos membros fundadores do Global Internet Forum to Counter Terrorism (GIFCT), em que trabalhamos com outras empresas de tecnologia para combater o conteúdo terrorista na Web ao fornecer treinamento e outros recursos para pequenas empresas que estejam sofrendo desafios similares.