Accéder au contenu
Règles et politiques

Règlement de la communauté

Règlement de la communauté

Aperçu

YouTube a toujours disposé d'un règlement de la communauté, un ensemble de politiques qui décrivent le type de contenu non autorisé sur YouTube. Ces politiques s'appliquent à tous les types de contenu sur notre plateforme, y compris les vidéos, les commentaires, les liens et les miniatures. Notre règlement de la communauté est un élément fondamental de notre ensemble élargi de politiques. Il est mis à jour régulièrement en collaboration avec des experts indépendants et des créateurs YouTube pour suivre le rythme des défis émergents.

Nous appliquons ce règlement de la communauté en utilisant une combinaison d'évaluateurs humains et d'apprentissage automatique, et nous l'appliquons à tout le monde de façon égale, peu importe le sujet ou les antécédents du créateur, son point de vue ou son affiliation politique, ainsi que sa situation financière.

Nos politiques visent à faire de YouTube une communauté plus sûre tout en donnant aux créateurs la liberté de partager une grande variété d'expériences et de perspectives.

Quels aspects sont couverts par le règlement de la communauté?

Vous trouverez notre règlement de la communauté dans son intégralité ci-dessous :

En plus du règlement de la communauté, les créateurs qui souhaitent monétiser du contenu sur YouTube doivent respecter les politiques de monétisation.

Comment YouTube procède-t-il pour élaborer de nouvelles politiques et mettre à jour les politiques existantes?

Chacune de nos politiques est le résultat d'une réflexion minutieuse de façon à ce qu'elle soit cohérente, éclairée et applicable au contenu du monde entier. Elles sont élaborées en collaboration avec un grand éventail d'experts externes du secteur, de spécialistes en politiques et de créateurs YouTube. Les nouvelles politiques sont soumises à plusieurs séries de tests avant d'être mises en ligne, pour que notre équipe mondiale d'évaluateurs de contenu puisse les appliquer de façon exacte et cohérente.

Ce travail n'est jamais terminé, et nous évaluons constamment nos politiques pour comprendre comment mieux concilier le besoin de protéger notre communauté YouTube avec l'objectif de permettre à chacun de s'exprimer.

Comment YouTube applique-t-il son règlement de la communauté?

Chaque minute, les internautes mettent en ligne 500 heures de vidéo sur YouTube. Cela représente beaucoup de contenu. C'est pourquoi nos équipes se réunissent pour s'assurer que le contenu que vous voyez sur notre plateforme respecte notre règlement de la communauté. Pour ce faire, nous combinons la puissance de systèmes avancés d'apprentissage automatique à notre communauté elle-même pour signaler le contenu potentiellement problématique. Nos spécialistes retirent ensuite le contenu signalé qui enfreint notre règlement de la communauté.

Comment YouTube procède-t-il pour détecter le contenu qui contrevient au règlement de la communauté?

Étant donné que plusieurs centaines d'heures de nouveau contenu sont téléversées chaque minute sur YouTube, nous utilisons une combinaison d'évaluateurs humains et d'apprentissage automatique pour détecter le contenu problématique à grande échelle. L'apprentissage automatique convient parfaitement pour détecter des tendances, ce qui nous aide à trouver du contenu semblable au contenu que nous avons déjà retiré, même avant qu'il soit visionné.

Nous reconnaissons également que la meilleure façon de retirer rapidement du contenu est de prévoir les problèmes avant qu'ils apparaissent. Notre bureau de surveillance passe en revue les actualités, les médias sociaux et les signalements d'utilisateurs pour détecter les nouvelles tendances en matière de contenu inapproprié, et veille à s'assurer que nos équipes sont préparées à s'y attaquer avant qu'elles posent un plus grand problème.

Les membres de la communauté élargie ont-ils un moyen de signaler du contenu nuisible?

Les membres de la communauté YouTube jouent également un rôle important en signalant le contenu qu'ils jugent inapproprié.

* Si vous voyez du contenu qui, selon vous, contrevient au règlement de la communauté, vous pouvez utiliser notre fonctionnalité de signalement pour soumettre ce contenu à un examen.

* Nous avons mis sur pied le programme Informateur de confiance YouTube afin de fournir des processus rigoureux de signalement de contenu aux organisations non gouvernementales (ONG) ayant une expertise dans un domaine de politique et aux agences gouvernementales. Les participants reçoivent une formation sur les politiques de YouTube, et ont accès à une voie directe de communication avec nos spécialistes en confiance et en sécurité. Les vidéos signalées par les informateurs de confiance ne sont pas automatiquement retirées. Elles sont soumises au même examen par un humain que les vidéos signalées par tout autre utilisateur, mais l'examen par nos équipes peut être accéléré. Les ONG reçoivent également une formation en ligne occasionnelle sur les politiques de YouTube.

Comment YouTube traite-t-il le contenu éducatif, documentaire, scientifique ou artistique?

Des vidéos qui pourraient autrement contrevenir à notre règlement de la communauté peuvent parfois être autorisées à rester sur YouTube si le contenu fournit une raison convaincante avec un contexte visible pour les spectateurs. Nous appelons souvent cette exception « EDSA », ce qui signifie « éducatif, documentaire, scientifique ou artistique ». Pour aider à déterminer si une vidéo peut être admissible à une exception ESDA, nous examinons plusieurs facteurs, y compris le titre de la vidéo, les descriptions et le contexte fourni.

Les exceptions EDSA sont un moyen essentiel de nous assurer que les discours importants restent sur YouTube, tout en protégeant l'écosystème élargi de YouTube contre le contenu pernicieux.

Quelles sont les mesures prises par YouTube pour le contenu qui contrevient au règlement de la communauté?

Les systèmes d'apprentissage automatique nous aident à détecter et à retirer automatiquement les contenus indésirables, ainsi qu'à retirer les contenus remis en ligne que nous avons déjà examinés et jugés comme contrevenant à nos politiques. YouTube prend des mesures à l'égard des autres vidéos signalées après leur examen par nos évaluateurs humains formés. Ces évaluateurs déterminent si le contenu contrevient effectivement à nos politiques, et protègent le contenu ayant un objectif éducatif, documentaire, scientifique ou artistique. Nos équipes d'évaluateurs retirent le contenu qui contrevient à nos politiques et le contenu soumis à une limite d'âge pouvant ne pas convenir à tous les auditoires. Les entrées des évaluateurs sont ensuite utilisées pour entraîner nos systèmes et en améliorer l'exactitude à une échelle beaucoup plus grande.

Avertissements pour non-respect du règlement de la communauté

Si nos évaluateurs déterminent que le contenu contrevient au règlement de la communauté, nous retirons le contenu et envoyons une notification au créateur. La première fois qu'un créateur contrevient au règlement de la communauté, il reçoit une mise en garde sans pénalité pour la chaîne. Après une mise en garde, nous enverrons un avertissement pour non-respect du règlement de la communauté au propriétaire de la chaîne, et le compte sera soumis à des restrictions temporaires, y compris l'interdiction de téléverser des vidéos, des diffusions en direct ou des histoires pendant une période d'une semaine. Les chaînes qui reçoivent 3 avertissements à l'intérieur d'une période de 90 jours sont résiliées. Les chaînes qui se consacrent à enfreindre nos politiques ou qui présentent un seul cas d'abus grave de la plateforme sont résiliées sans passer par notre système d'avertissements. Un créateur peut faire appel de tout avertissement et de toute résiliation s'il croit qu'il y a eu une erreur, et nos équipes réévalueront alors la décision.

Contenu soumis à une limite d'âge

Il arrive parfois qu'un contenu qui respecte notre règlement de la communauté ne soit pas approprié pour les spectateurs de moins de 18 ans. Dans ces cas, notre équipe d'examen applique une limite d'âge à la vidéo de manière à ce qu'elle ne soit pas visible pour les spectateurs de moins de 18 ans, les utilisateurs non connectés ou ceux pour lesquels le mode restreint est activé. Les créateurs peuvent également choisir d'appliquer une limite d'âge à leur propre contenu lors du téléversement s'ils pensent qu'il ne convient pas aux jeunes auditoires.