Direkt zum Inhalt
Wofür wir stehen

Trägt YouTube zur Radikalisierung bei?

Wir arbeiten intensiv daran, Nutzer vor extremistischen Inhalten zu schützen. Wir gehen gegen extremistische Inhalte vor, indem wir Inhalte entfernen, die gegen unsere Richtlinien zu Hassrede und Richtlinien zu gewalttätigen kriminellen Organisationen verstoßen. Durch unsere Empfehlungssysteme wird außerdem die Reichweite von grenzwertigen Inhalten und schädlichen Fehlinformationen eingeschränkt, bei denen für einen Verstoß gegen die Richtlinien nicht viel fehlt.

Extremistische Inhalte eindämmen

Welche Richtlinien befassen sich mit extremistischen Inhalten?

Jegliche Inhalte, die zu Gewalt anstiften oder Hass gegen bestimmte Gruppen oder Menschen schüren, verstoßen gegen unsere Richtlinien zu Hassrede. Außerdem verletzen Inhalte, die Terrorismus fördern oder verherrlichen, unsere Richtlinien zu gewalttätigen kriminellen Organisationen. Wir entfernen solche Inhalte, wenn sie uns gemeldet werden.

Wie geht YouTube mit Inhalten um, die nicht gegen die Richtlinien verstoßen, aber dennoch schädlich sein könnten?

Manchmal gibt es Inhalte, bei denen für einen Verstoß gegen die Richtlinien nicht viel fehlt. Wir sprechen in diesen Fällen von grenzwertigen Inhalten. Die Verbreitung von grenzwertigen Inhalten wird durch unsere Empfehlungssysteme eingeschränkt. Dadurch konnten wir die Wiedergabezeit solcher Inhalte aus Empfehlungen für Nutzer, die den jeweiligen Kanal nicht abonniert haben, in den USA um 70 % verringern.

Was unternimmt YouTube, um gezielt gegen Inhalte vorzugehen, die zu gewalttätigem Extremismus und Terrorismus aufrufen?

Inhalte, die terroristische oder andere gewalttätige Organisationen unterstützen oder verherrlichen, sind auf YouTube verboten. YouTube setzt automatisierte Systeme ein, um Inhalte zu ermitteln, die gegen die Richtlinien zu gewalttätigen kriminellen Organisationen und andere Richtlinien verstoßen. Sobald mögliche problematische Inhalte identifiziert wurden, bestätigen wir durch eine manuelle Überprüfung, ob sie gegen unsere Richtlinien verstoßen. Wenn sie gegen die Richtlinien verstoßen, werden diese Inhalte entfernt und eingesetzt, um unsere Systeme zu trainieren und zu verbessern. Dank maschinellem Lernen können wir extremistische Inhalte jetzt entfernen, bevor sie von einer großen Anzahl von Nutzern gesehen werden. Zwischen Oktober und Dezember 2019 wurden etwa 90 % der entfernten Videos, die gegen unsere Richtlinien zu gewalttätigem Extremismus verstoßen haben, von der Plattform entfernt, bevor sie zehnmal aufgerufen wurden.

Die YouTube-Community hilft uns auch dabei, solche Inhalte zu identifizieren. Unter jedem Video gibt es eine Meldefunktion, in der Nutzer die Option "Unterstützung von Terrorismus" auswählen können. Wir arbeiten außerdem im Rahmen unseres Trusted Flagger-Programms mit Experten zusammen, die sich auf den Bereich "gewalttätiger Extremismus" spezialisiert haben. Unsere Teams überprüfen rund um die Uhr sorgfältig alle gemeldeten Inhalte.

Wir sind außerdem Gründungsmitglied des Global Internet Forum to Counter Terrorism (Globales Internetforum zur Bekämpfung von Terrorismus, GIFCT). In dieser Organisation arbeiten Technologieunternehmen zusammen, um terroristische Inhalte im Internet zu verhindern. Zugleich bieten sie Schulungen und andere Infomaterialien für kleinere Unternehmen an, die vor ähnlichen Herausforderungen stehen.