Ir al contenido
Nuestros compromisos

¿YouTube contribuye a la radicalización?

Trabajamos arduamente para proteger a los usuarios del contenido extremista. Abordamos el contenido extremista quitando los videos que incumplen nuestras políticas sobre la incitación al odio o a la violencia, y sobre organizaciones criminales violentas. Nuestros sistemas de recomendación limitan de forma significativa el alcance del contenido que se encuentra en el límite de lo aceptable y de la información errónea y perjudicial que apenas cumple con nuestras políticas, pero que no las incumple.

Restricción del contenido extremista

El contenido que incita a la violencia o fomenta el odio hacia ciertos grupos de personas va en contra de nuestra política sobre la incitación al odio o a la violencia. Además, el contenido que promueve o exalta el terrorismo infringe nuestra política sobre organizaciones criminales violentas. Quitamos este contenido cuando se marca como tal.

¿Cómo trata YouTube el contenido que no incumple las políticas, pero aún puede considerarse como perjudicial?

A veces, hay contenido que apenas cumple con las políticas pero no las infringe. Lo llamamos contenido que se encuentra en el límite de lo aceptable. Nuestros sistemas de recomendaciones ayudan a limitar la difusión de este tipo de contenido y, como resultado, observamos una caída promedio del 70% en su tiempo de reproducción proveniente de recomendaciones mostradas a usuarios no suscritos en EE.UU.

¿Qué está haciendo YouTube para tratar específicamente contenido que fomenta el extremismo violento y el terrorismo?

El contenido que promueve o exalta organizaciones criminales violentas o terroristas no tiene lugar en YouTube. YouTube tiene sistemas automatizados que ayudan en la detección de contenido que puede incumplir nuestras políticas, incluida la Política de Organizaciones Criminales Violentas. Una vez que identificamos el contenido potencialmente problemático, verificamos por medio de una revisión manual si infringe nuestras políticas. Si las infringe, quitamos el contenido y lo usamos para entrenar nuestros sistemas a fin de tener una mejor cobertura en el futuro. Actualmente, el aprendizaje automático nos permite eliminar contenido extremista antes de que lo vean muchas personas. Entre octubre y diciembre de 2019, cerca del 90% de los videos subidos que incumplían nuestra política acerca del extremismo violento se quitaron antes de alcanzar las 10 vistas.

La comunidad de YouTube también nos ayuda a identificar este contenido. En YouTube asignamos una marca de “fomenta el terrorismo” debajo de los videos que los usuarios pueden seleccionar cuando denuncian contenido. También trabajamos con expertos en extremismo violento mediante nuestro Programa de marcadores de confianza. Los equipos revisan cuidadosamente las marcas las 24 horas, todos los días.

También somos uno de los miembros fundadores del Global Internet Forum to Counter Terrorism (GIFCT), en el que trabajamos con otras empresas de tecnología para expulsar el contenido terrorista de la Web y brindar capacitaciones y otros recursos a empresas más pequeñas que enfrentan desafíos similares.