Ir para o conteúdo
Nossos compromissos

Como o YouTube protege a comunidade contra ódio e assédio?

Criamos nossas políticas contra discurso de ódio e assédio com a ajuda de criadores de conteúdo, que compartilharam perspectivas pessoais, e de organizações especializadas no estudo do bullying virtual e da propagação de ideias de ódio na Internet. Também conversamos com "think tanks" de todos os lados do espectro político. Assim como fazemos com outros vídeos que violam as políticas, trabalhamos para remover rapidamente conteúdo que não cumpre as diretrizes contra discurso de ódio e assédio.

Combate ao ódio

Qual é a diferença entre discurso de ódio e assédio?

Nossa política contra discurso de ódio protege grupos específicos de pessoas. Por isso, removemos conteúdo que viole as normas definidas nesse documento. Consideramos discurso de ódio conteúdo que promova ódio ou violência contra grupos com base em atributos protegidos, como idade, gênero, raça, classe, religião, orientação sexual ou condição de veterano de guerra. Essa política também inclui formas comuns de ódio on-line, como desumanização de membros desses grupos; caracterização deles como inferiores ou doentes; promoção de ideologias de ódio, como o nazismo; promoção de teorias da conspiração sobre esses grupos; ou negação da ocorrência de eventos violentos bem documentados, como tiroteios em escolas.

Executivos da Equipe de confiabilidade e segurança do YouTube explicam como estamos protegendo nossa comunidade contra discursos de ódio.

Nossa política contra assédio protege indivíduos identificáveis, e removemos qualquer conteúdo que viole essa política. Consideramos assédio conteúdo direcionado a um indivíduo com insultos maldosos ou prolongados com base em atributos intrínsecos, incluindo o status de grupo protegido ou traços físicos. Essa política também inclui comportamento prejudicial, como insultar ou humilhar menores deliberadamente; fazer ameaças, bullying ou doxxing; e encorajar comportamento abusivo de fãs.

Executivos da Equipe de confiabilidade e segurança do YouTube explicam como estamos protegendo nossa comunidade contra assédios.

Como o YouTube lida com teorias da conspiração nocivas?

Como parte das nossas políticas contra ódio e assédio, proibimos conteúdo que ataque um indivíduo ou grupo com teorias da conspiração que têm sido usadas para justificar violência no mundo real. Um exemplo seria conteúdo que ameaça ou assedia alguém ao sugerir que essa pessoa participa de uma dessas conspirações nocivas, como QAnon ou Pizzagate. Como sempre, o contexto importa, por isso conteúdo jornalístico sobre esses assuntos ou vídeos que discutam as conspirações sem atacar indivíduos ou grupos protegidos poderão continuar na plataforma. Como a natureza e as táticas dos grupos que promovem essas teorias da conspiração estão em constante mudança, continuaremos a adaptar nossas políticas para permanecer atualizados e tomar as medidas necessárias para lidar com essa problema.

Como o YouTube aplica as políticas contra discurso de ódio e assédio?

É complexo aplicar políticas contra discurso de ódio e assédio em escala porque a tomada de decisão exige uma compreensão das sutilezas dos contextos e idiomas locais. Para ajudar na aplicação consistente de nossas políticas, temos equipes de análise com experiência em linguística e no objeto em questão. Também implantamos aprendizado de máquina para detectar, de maneira proativa, conteúdo potencialmente de ódio, que enviamos para revisão humana. Trimestralmente, removemos dezenas de milhares de vídeos e canais que violam essas políticas. No caso dos canais que insistem em não seguir nossas políticas, tomamos medidas mais severas, incluindo a remoção do Programa de Parcerias do YouTube (que impede a geração de receita pelo canal), o envio de avisos (remoção de conteúdo) ou o encerramento do canal.

Essas políticas afetam de modo desproporcional as opiniões políticas que o YouTube não aprova?

Ao desenvolver e atualizar nossas políticas, ouvimos a opinião de diferentes grupos, incluindo criadores de conteúdo, especialistas no assunto, proponentes da liberdade de expressão e "think tanks" de todos os lados do espectro político. Depois de desenvolver a política, investimos um tempo significativo para garantir que ela seja aplicada de maneira consistente pelas nossas equipes globais de revisores, com base em diretrizes objetivas, independentemente de quem posta o conteúdo. Criamos uma plataforma para vozes autênticas que incentiva nossa comunidade diversa de criadores de conteúdo a se envolver em uma intensa troca de ideias.

Há exceções na aplicação da política contra discurso de ódio?

O YouTube é uma plataforma que preza a liberdade de expressão. Embora não seja permitido o discurso de ódio, abrimos exceções para vídeos com clara finalidade educacional, científica, artística ou de documentação. Isso inclui, por exemplo, um documentário sobre um grupo de ódio. Embora possa conter discurso de ódio, a obra será permitida se a intenção dela for evidente. Além disso, o conteúdo não deve promover o discurso de ódio, e os espectadores precisam ser devidamente contextualizados para que entendam o que está sendo documentado e por quê. Isso, entretanto, não deve ser considerado como um passe livre para promover o discurso de ódio, e você poderá sinalizar o problema para a análise das nossas equipes se considerar que o conteúdo viola nossas políticas contra o discurso de ódio.

Como o YouTube trata o assédio recorrente?

Removemos os vídeos que violam nossa política de assédio. Também reconhecemos que, algumas vezes, o assédio ocorre por meio de um padrão de comportamento recorrente em diversos vídeos ou comentários, mesmo quando os vídeos em si não ultrapassam a linha da nossa política. Os canais que insistirem em não seguir nossa política contra assédio serão suspensos do Programa de Parcerias do YouTube (YPP), impedindo a geração de receita na plataforma. Dessa maneira, garantimos que apenas criadores de conteúdo confiáveis sejam recompensados. Esses canais também poderão receber avisos (o que pode levar à remoção do conteúdo) ou ter suas contas suspensas.

Quais são as ferramentas disponíveis para que os criadores se protejam e definam o tom das conversas nos próprios canais?

Embora nossas políticas e sistemas procurem evitar que os criadores tenham que se proteger contra o discurso de ódio e assédio, também criamos ferramentas que ajudam no autogerenciamento da experiência, conforme o resumo abaixo.

Fornecemos aos criadores ferramentas de moderação de comentários para que eles possam definir o tom das conversas no canal. Retemos comentários possivelmente impróprios para análise, para que os criadores de conteúdo possam decidir se são adequados para o público deles. Também temos outras ferramentas que permitem aos criadores bloquear determinadas palavras nos comentários, impedir que determinados indivíduos façam comentários ou atribuir privilégios de moderação a terceiros para que eles possam monitorar comentários no canal de maneira mais eficiente.

Para incentivar conversas respeitosas no YouTube, também temos um recurso que alertará os usuários se o comentário deles puder parecer ofensivo para outras pessoas, dando a eles a opção de pensar e editar antes de postar.

Por fim, temos uma lista de recursos para ajudar os criadores de conteúdo a se sentirem mais seguros no YouTube. Sabemos que ainda há muito a ser feito, e nosso compromisso é com o avanço desse trabalho.