Ir para o conteúdo
Os nossos compromissos

O YouTube contribui para a radicalização?

Trabalhamos arduamente para proteger os utilizadores contra conteúdo extremista. Abordamos o conteúdo extremista através da remoção de vídeos que violem a nossa Política de Incitação ao Ódio e Política sobre Organizações Criminosas Violentas. Os nossos sistemas de recomendação limitam significativamente o alcance de conteúdo limite e desinformação prejudicial que se aproximem dos limites da política, mas não a violem.

Controlar conteúdo extremista

Que políticas abordam conteúdo extremista?

Qualquer conteúdo concebido para incitar à violência ou fomentar o ódio contra determinados grupos de pessoas opõe-se à nossa Política de Incitação ao Ódio. Adicionalmente, conteúdo que promova ou glorifique o terrorismo opõe-se à nossa Política sobre Organizações Criminosas Violentas. Removemos este conteúdo quando nos é sinalizado.

De que forma o YouTube lida com conteúdo que não viola as políticas, mas que pode, ainda assim, ser considerado prejudicial?

Por vezes, existe conteúdo que se aproxima dos limites da política, mas que não a viola. Chamamos-lhe "conteúdo limite". Os nossos sistemas de recomendações ajudam a limitar a divulgação de conteúdo limite e, por isso, verificámos uma redução superior a 70% no tempo de visualização deste tipo de conteúdo proveniente de recomendações de não subscritores nos EUA.

O que está o YouTube a fazer especificamente para lidar com conteúdo que promova extremismo violento e terrorismo?

Conteúdo que promova ou glorifique o terrorismo e outras organizações criminais violentas não tem lugar no YouTube. O YouTube possui sistemas automáticos que ajudam a detetar conteúdo que possa violar as nossas políticas, incluindo a nossa Política sobre Organizações Criminosas Violentas. Quando se identifica conteúdo potencialmente problemático, a revisão humana verifica se este viola ou não as nossas políticas. Se o fizer, o conteúdo é removido e utilizado para treinar as nossas máquinas para uma melhor cobertura no futuro. A aprendizagem automática ajuda-nos a remover conteúdo extremista antes de este ser visualizado em grande escala. Entre outubro e dezembro de 2019, aproximadamente 90% dos vídeos carregados que violavam a nossa Política Contra Extremismo Violento foram removidos antes de obterem 10 visualizações.

A comunidade do YouTube também nos ajuda a identificar este conteúdo. Todos os vídeos no YouTube dispõem de um sinalizador específico para "promoção do terrorismo" abaixo do mesmo que os utilizadores podem selecionar quando denunciam o conteúdo. Também colaboramos com especialistas em extremismo violento através do nosso programa Moderador de confiança. As equipas avaliam cuidadosamente as denúncias 24 horas por dia, 7 dias por semana.

Somos também membro-fundador do Fórum Global da Internet para o Combate ao Terrorismo (GIFCT - Global Internet Forum to Counter Terrorism), onde colaboramos com outras empresas tecnológicas para manter o conteúdo terrorista fora da Web, ao mesmo tempo que disponibilizamos formação e outros recursos a empresas mais pequenas que se deparam com desafios semelhantes.