Accéder au contenu
Nos engagements

Comment YouTube lutte pour limiter la diffusion des contenus extremistes

Nous mettons tout en œuvre pour protéger nos utilisateurs des contenus extrémistes. Pour cela, nous supprimons les vidéos qui ne respectent pas notre Règlement concernant l'incitation à la haine et notre Règlement concernant les organisations criminelles violentes. Nos systèmes de recommandation restreignent de façon significative la diffusion des contenus à la limite de l'infraction au règlement et des contenus présentant de fausses informations dangereuses.

Limiter la diffusion des contenus extrémistes

Quelles règles YouTube a-t-il mises en place concernant les contenus extrémistes ?

Les contenus visant à inciter les spectateurs à la violence ou à la haine envers certains groupes de personnes enfreignent notre Règlement concernant l'incitation à la haine. De plus, tout contenu faisant la promotion ou l'apologie du terrorisme est interdit conformément à notre Règlement concernant les organisations criminelles violentes. Lorsque ces types de contenus sont signalés, nous les supprimons.

Comment YouTube gère-t-il les contenus qui n'enfreignent pas le règlement, mais qui peuvent être considérés comme dangereux ?

Parfois, certains contenus frôlent le non-respect du règlement, sans pour autant franchir la limite. C'est ce que nous appelons les contenus à la limite d'une infraction. Nos systèmes de recommandation contribuent à limiter la diffusion de ce type de contenus. Résultat : la durée de visionnage de ces contenus issus de recommandations de chaînes auxquelles les utilisateurs ne sont pas abonnés a chuté de 70 % aux États-Unis.

Que fait YouTube pour s'attaquer aux contenus qui font la promotion du terrorisme et de l'extrémisme violent ?

Les contenus faisant la promotion ou l'apologie des organisations terroristes et autres organisations criminelles violentes n'ont pas leur place sur YouTube. YouTube dispose de systèmes automatisés qui facilitent la détection de contenus pouvant enfreindre notre règlement, y compris celui concernant les organisations criminelles violentes. Lorsque des contenus pouvant poser un problème sont détectés, des examinateurs les passent en revue pour déterminer si ces vidéos enfreignent notre règlement. En cas de non-respect, les contenus sont supprimés et utilisés pour améliorer la précision de nos systèmes automatiques. Le machine learning (apprentissage automatique) nous aide à supprimer des contenus extrémistes avant qu'ils ne puissent être vus par un grand nombre de personnes. Entre octobre et décembre 2019, environ 90 % des vidéos ayant été supprimées pour avoir enfreint notre règlement concernant l'extrémisme violent ont été retirées avant d'avoir obtenu 10 vues.

La communauté YouTube nous aide également à détecter ce genre de contenus. Une option de signalement pour "Incitation au terrorisme" est présente sous chaque vidéo sur YouTube afin de permettre aux utilisateurs de signaler les contenus qui font la promotion du terrorisme. Nous travaillons également avec des spécialistes de l'extrémisme violent via notre programme Trusted Flagger. Nos équipes examinent les vidéos signalées 24h/24, 7j/7.

Nous sommes également membre fondateur du Global Internet Forum to Counter Terrorism (GIFCT). Via ce forum, nous collaborons avec plusieurs autres entreprises de technologies pour bannir du Web tous les contenus terroristes. Nous proposons en outre des sessions de formation ainsi que d'autres ressources aux petites entreprises confrontées à des défis similaires.