Ir al contenido
Nuestros compromisos

¿Contribuye YouTube a la radicalización?

Nos esforzamos mucho por proteger a los usuarios del contenido extremista. Retiramos de la plataforma todo el contenido de este tipo que infrinja nuestra política sobre incitación al odio y nuestra política sobre organizaciones criminales violentas. Nuestros sistemas de recomendación limitan de manera significativa el alcance del contenido cuestionable y la información falsa dañina que, aunque bordeen la línea de lo que se consideraría una infracción de nuestras políticas, no llegan a cruzarla.

Restringir el contenido extremista

¿Qué políticas aplica YouTube para luchar contra el contenido extremista?

Cualquier contenido que haya sido diseñado para incitar a la violencia o fomentar el odio hacia determinados grupos de personas está en contra de nuestra política sobre incitación al odio. Asimismo, el contenido que promueva o enaltezca el terrorismo infringe nuestra política sobre organizaciones criminales violentas. Retiramos este tipo de contenido cuando recibimos una denuncia.

¿Cómo gestiona YouTube el contenido que no infringe las políticas, pero que podría considerarse dañino?

A veces, hay contenido que roza la línea de lo que se consideraría una infracción de nuestras políticas, pero no llega a cruzarla. Este contenido recibe el nombre de "contenido cuestionable". Nuestros sistemas de recomendación nos ayudan a impedir que este tipo de contenido se divulgue y hemos conseguido que el tiempo de visualización de contenido cuestionable procedente de recomendaciones a usuarios no suscritos en EE. UU. se haya reducido en más del 70 %.

¿Qué medidas concretas toma YouTube para plantar cara al contenido que promueve el terrorismo y el extremismo violento?

El contenido que promueve o enaltece a grupos terroristas y otras organizaciones criminales violentas no tiene cabida en YouTube. YouTube dispone de sistemas automatizados que ayudan a detectar el contenido que puede infringir nuestras políticas, incluida nuestra política sobre organizaciones criminales violentas. Una vez que el contenido que podría ser problemático ha sido identificado, lo revisamos manualmente para comprobar si efectivamente infringe nuestras políticas. En caso de que así sea, retiramos el contenido y lo usamos para preparar y mejorar nuestras máquinas. Ahora, el aprendizaje automático nos permite retirar el contenido extremista antes de que lleguen a verlo un gran número de usuarios. Entre octubre y diciembre del 2019, retiramos aproximadamente el 90 % de los vídeos que infringían nuestra política sobre organizaciones criminales violentas antes de que llegaran a tener 10 visualizaciones.

Además, contamos con la ayuda de la propia comunidad de YouTube para detectar este tipo de contenido. Los usuarios pueden denunciar este tipo de contenido seleccionando "Fomenta el terrorismo" en la opción Denunciar, situada debajo de cada vídeo. También trabajamos con un equipo de expertos en extremismo violento mediante nuestro programa para Informadores de Confianza. Nuestros equipos revisan las denuncias que recibimos de forma ininterrumpida.

YouTube también es un miembro fundador del Global Internet Forum to Counter Terrorism (GIFCT), donde trabajamos con otras empresas del sector de la tecnología para erradicar el contenido de carácter terrorista de Internet, a la vez que impartimos formaciones y proporcionamos otros recursos a empresas de menor tamaño que se enfrentan a problemas similares.