Accéder au contenu
Nos engagements

Est-ce que YouTube contribue à la radicalisation?

Nous travaillons fort pour protéger les utilisateurs contre le contenu extrémiste. Nous nous attaquons au contenu extrémiste en retirant les vidéos qui enfreignent notre politique relative aux discours haineux et notre politique relative aux organisations criminelles violentes. Nos systèmes de recommandations restreignent considérablement la portée du contenu limite et de la mésinformation nuisible qui frôle les limites d'une politique, sans toutefois les franchir.

Réduire le contenu extrémiste

Quelles sont les politiques s'appliquant au contenu extrémiste?

Tout contenu qui est conçu pour inciter à la violence ou fomenter la haine à l'égard de certains groupes de personnes va à l'encontre de notre politique relative aux discours haineux. En outre, tout contenu visant à promouvoir ou à glorifier le terrorisme va à l'encontre de notre politique relative aux organisations criminelles violentes. Nous supprimons ce contenu lorsqu'il nous est signalé.

Comment YouTube gère-t-il le contenu qui n'enfreigne pas les politiques, mais qui pourrait toujours être considéré comme pernicieux?

Il arrive parfois que du contenu frôle les limites d'une politique, mais sans les franchir. Il s'agit de ce que nous appelons du contenu limite. Nos systèmes de recommandations aident à limiter la propagation du contenu limite, et c'est la raison pour laquelle nous avons observé une baisse de plus de 70 % de la durée de visionnement de ce contenu provenant de recommandations de non-abonnés aux États-Unis.

Que fait YouTube pour s'attaquer spécifiquement au contenu qui vise à promouvoir l'extrémisme violent et le terrorisme?

Le contenu qui vise à promouvoir ou à glorifier les organisations terroristes et autres organisations criminelles violentes n'a pas sa place sur YouTube. YouTube utilise des systèmes automatisés qui facilitent la détection du contenu pouvant aller à l'encontre de ses politiques, y compris sa politique relative aux organisations criminelles violentes. Dès qu'un contenu potentiellement problématique est détecté, une vérification par un humain permet d'établir s'il enfreint nos politiques. Si c'est le cas, le contenu est supprimé et utilisé pour entraîner nos machines à effectuer une meilleure couverture à l'avenir. L'apprentissage automatique nous aide maintenant à supprimer le contenu extrémiste avant qu'il n'ait été largement visionné. Entre octobre et décembre 2019, environ 90 % des vidéos mises en ligne qui ont été supprimées pour avoir enfreint notre politique relative à l'extrémisme violent ont été retirées avant qu'elles fassent l'objet de 10 visionnements.

La communauté YouTube nous aide également à détecter ce type de contenu. Sous chaque vidéo YouTube se trouve un indicateur désigné « incitation au terrorisme », que les utilisateurs peuvent sélectionner lorsqu'ils signalent du contenu. Nous travaillons également avec des experts en matière d'extrémisme violent dans le cadre de notre programme Signaleur de confiance. Des équipes examinent soigneusement les indicateurs 24 heures sur 24, 7 jours sur 7.

Nous sommes également l'un des membres fondateurs du Global Internet Forum to Counter Terrorism (GIFCT), dans le cadre duquel nous travaillons avec d'autres entreprises technologiques pour éliminer le contenu terroriste du Web, tout en fournissant de la formation et d'autres ressources aux petites et moyennes entreprises qui sont confrontées à des défis similaires.