Ir para o conteúdo
Regras e políticas

Diretrizes da comunidade

Diretrizes da comunidade

Visão geral

O YouTube sempre teve diretrizes da comunidade que definem qual tipo de conteúdo não é permitido. Essas políticas se aplicam a tudo em nossa plataforma, incluindo vídeos, comentários, links e miniaturas. Nossas diretrizes da comunidade são uma parte essencial do nosso conjunto amplo de políticas, e elas são atualizadas frequentemente em consultorias com especialistas externos e criadores do YouTube. Dessa forma, podemos acompanhar os novos desafios.

Aplicamos as diretrizes da comunidade usando uma combinação de revisores humanos e aprendizado de máquina. Elas são aplicadas a todos igualmente, não importa o assunto ou certos aspectos do criador, como ações anteriores e afiliação ou ponto de vista políticos.

O objetivo das nossas diretrizes é fazer do YouTube uma comunidade mais segura, enquanto ainda mantemos a liberdade dos criadores para compartilhar vários tipos de experiências e perspectivas.

As diretrizes da comunidade englobam quais áreas?

Veja abaixo uma lista completa das diretrizes da comunidade:

Além das diretrizes da comunidade, os criadores que querem gerar receita com o próprio conteúdo no YouTube precisam seguir as políticas de monetização.

Como o YouTube desenvolve políticas novas e atualiza as antigas?

Cada uma das nossas políticas é criada com cuidado para que seja consistente, bem fundamentada e possa ser aplicada a conteúdos de todas as partes do mundo. Elas são desenvolvidas em parceria com vários especialistas externos em políticas e setores, além de criadores de conteúdo do YouTube. As novas políticas passam por várias fases de teste antes de serem implementadas. Fazemos isso para garantir que nossa equipe global de revisores de conteúdo possa aplicar as políticas de maneira precisa e consistente.

Esse trabalho nunca termina e estamos sempre avaliando nossas políticas para entender como podemos alcançar um maior equilíbrio entre manter a comunidade do YouTube protegida e dar voz a todos.

Como o YouTube aplica as diretrizes da comunidade?

A cada minuto, 500 horas de vídeo são enviadas ao YouTube. Isso é muito conteúdo, por essa razão nossas equipes trabalham juntas para garantir que o conteúdo em nossa plataforma siga as diretrizes da comunidade. Para fazer isso, combinamos nossa comunidade e o poder dos sistemas avançados de aprendizado de máquina para sinalizar conteúdo potencialmente problemático. Depois disso, nossos revisores especializados removerão o conteúdo sinalizado que viola nossas diretrizes da comunidade.

Como o YouTube identifica conteúdo que viola as diretrizes da comunidade?

Recebemos centenas de horas de vídeo a cada minuto, por isso usamos uma combinação de pessoas e aprendizado de máquina para detectar conteúdo problemático em escala. O aprendizado de máquina é uma ótima ferramenta para identificar padrões, o que nos ajuda a encontrar conteúdo semelhante a vídeos que já removemos, mesmo antes de haver alguma visualização.

Reconhecemos ainda que a melhor maneira de remover rapidamente um conteúdo é antecipar problemas antes que eles apareçam. Nossa Central de inteligência monitora notícias, mídias sociais e denúncias de usuários para detectar novas tendências a respeito de conteúdo inadequado e trabalha para garantir que nossas equipes estejam preparadas para resolver os problemas antes que eles se tornem maiores.

A comunidade em geral pode sinalizar conteúdo nocivo?

A comunidade do YouTube também tem um papel muito importante em sinalizar conteúdo que pode ser inapropriado.

  • Se você encontrar algo que viola as diretrizes da comunidade, use nosso recurso de sinalização para avisar que o vídeo precisa ser analisado.

  • Criamos o Programa Revisor Confiável do YouTube para oferecer processos avançados de denúncia de conteúdo a agências governamentais e ONGs com experiência em uma área específica das políticas. Os participantes recebem treinamentos sobre as diretrizes do YouTube e podem se comunicar diretamente com nossos especialistas de confiabilidade e segurança. Vídeos sinalizados por um Revisor Confiável não são removidos automaticamente. Eles estão sujeitos à mesma revisão humana que os vídeos sinalizados por outros usuários, mas o conteúdo denunciado por participantes desse programa será analisado mais rápido. Além disso, as ONGs também recebem de vez em quando treinamentos on-line sobre as políticas do YouTube.

Como o YouTube trata o conteúdo educacional, documental, científico ou artístico?

Às vezes, vídeos que poderiam violar nossas diretrizes da comunidade serão permitidos no YouTube se o conteúdo mostrar um contexto claro explicando que o objetivo não é ir contra as diretrizes. Geralmente nos referimos a essa exceção como "EDCA", que significa "Educacional, Documental, Científico ou Artístico". Para determinar se um vídeo se qualifica como uma exceção EDCA, consideramos vários fatores, como o título do conteúdo, as descrições e o contexto fornecido.

Exceções EDCA são uma maneira importante de garantir que assuntos relevantes permaneçam no YouTube, ao mesmo tempo em que conteúdos nocivos são retirados.

Que medida o YouTube toma sobre conteúdo que viola as diretrizes da comunidade?

Os sistemas de aprendizado de máquina nos ajudam a identificar e remover spam automaticamente, bem como reenvios de conteúdo que já foi analisado e classificado como violador de nossas políticas. O YouTube decide o que fazer com os vídeos sinalizados por outros motivos somente depois que nossos revisores treinados analisam o conteúdo. Eles avaliam se o vídeo de fato viola nossas políticas e protegem conteúdo que tenha objetivos educacionais, científicos, documentais ou artísticos. Nossas equipes de revisores removem vídeos que violam nossas políticas e aplicam restrições de idade a conteúdo que não é apropriado para todos os públicos. Depois disso, as decisões dos revisores são usadas para treinar e melhorar a precisão dos nossos sistemas em larga escala.

Avisos das diretrizes da comunidade

Se os revisores determinarem que um vídeo viola nossas diretrizes da comunidade, removeremos o conteúdo e enviaremos uma notificação para o criador. Se for a primeira vez que o criador violou nossas diretrizes, ele receberá um alerta, e o canal não será penalizado. Se houver alguma violação depois disso, enviaremos um aviso das diretrizes da comunidade, e a conta sofrerá restrições temporárias, que incluem não poder enviar vídeos e histórias ou fazer transmissões ao vivo durante uma semana. Canais que receberem três avisos em um período de 90 dias serão encerrados. Canais dedicados a violar nossas políticas ou com apenas um caso grave de abuso na plataforma são encerrados sem passar pelo sistema de avisos. Todos os avisos e encerramentos podem ser contestados se o criador de conteúdo acredita que houve um erro. Nesse caso, nossas equipes analisarão novamente a decisão.

Conteúdo com restrição de idade

Às vezes, o vídeo não viola nossas diretrizes da comunidade, mas pode não ser apropriado para espectadores com menos de 18 anos. Nesses casos, as equipes de revisão colocam uma restrição de idade no vídeo para que ele não seja assistido por menores de 18 anos, usuários não conectados ou que estão usando o YouTube no Modo restrito. Criadores podem também optar por restringir a idade do seu próprio conteúdo no envio, caso acreditem que ele não é apropriado para públicos mais jovens.