Direkt zum Inhalt
Regeln und Richtlinien

Community-Richtlinien

Community-Richtlinien

Übersicht

Die Community-Richtlinien wurden zum Schutz unserer Community erstellt. Sie definieren, was auf YouTube erlaubt ist und was nicht. Dabei gelten sie für alle Arten von Inhalten auf der Plattform, inklusive Videos, Kommentare, Links und Thumbnails.

Unten findest du eine Liste unserer Community-Richtlinien:

Wie entwickeln wir neue Richtlinien und aktualisieren vorhandene Richtlinien?

Alle unsere Richtlinien wurden sorgfältig durchdacht, damit sie konsistent und weltweit anwendbar sind sowie auf fundierten Entscheidungen basieren. Sie werden in Zusammenarbeit mit einer großen Bandbreite von externen Branchen- und Richtlinienexperten und Creatorn entwickelt. Neue Richtlinien durchlaufen erst mehrere Testreihen, bevor sie eingeführt werden, damit unser globales Team von Inhaltsprüfern sie richtig und konsistent anwenden kann.

Die Richtlinien werden regelmäßig überprüft, damit wir besser ermitteln können, wie wir zwar einerseits die YouTube-Community schützen, zugleich aber allen Nutzern eine Plattform der freien Meinungsäußerung bieten können.

Wie identifiziert YouTube Inhalte, die gegen die Community-Richtlinien verstoßen?

Da jede Minute Hunderte Stunden an neuen Videos auf YouTube hochgeladen werden, setzen wir sowohl manuelle Überprüfung als auch maschinelles Lernen ein, um möglicherweise problematische Inhalte in großem Umfang zu ermitteln. Mithilfe von maschinellem Lernen können wir Muster erkennen und so Inhalte von der Plattform entfernen, die anderen bereits entfernten Inhalten ähneln, noch bevor sie angesehen werden.

Wir wissen auch, dass Inhalte am besten zeitnah entfernt werden können, wenn wir Probleme vorhersehen, noch bevor sie auftreten. Unser Intelligence Desk überwacht Nachrichten, soziale Medien und Meldungen von Nutzern, um neue Trends bezüglich unangemessener Inhalte zu erkennen. Unsere Teams werden dann auf den Umgang mit diesen Inhalten vorbereitet, bevor sie sich zu einem größeren Problem entwickeln können.

Gibt es Möglichkeiten, wie eine größere Community schädliche Inhalte melden kann?

Unser Ziel ist es weiterhin, die Verbreitung von Videos, die gegen unsere Richtlinien verstoßen, zu unterbinden. Deshalb haben wir mehr als 10.000 Personen damit beauftragt, Inhalte zu ermitteln, zu prüfen und zu entfernen, die gegen unsere Richtlinien verstoßen. Die YouTube-Community spielt aber auch eine wichtige Rolle bei der Meldung von potenziell unangemessenen Inhalten.

  • Wenn du Inhalte siehst, die gegen unsere Community-Richtlinien verstoßen, kannst du sie mithilfe der Meldefunktionen zur Überprüfung einreichen.

  • Wir haben das YouTube Trusted Flagger-Programm entwickelt, um Nichtregierungsorganisationen (NGOs), die auf bestimmte Richtlinienbereiche spezialisiert sind, Behörden und Nutzern, die häufig korrekte Meldungen einreichen, solide Prozesse zum Melden von Inhalten zur Verfügung zu stellen. Teilnehmer erhalten Schulungen zum Thema YouTube-Richtlinien und können direkt mit den Spezialisten unseres Trust & Safety-Teams kommunizieren. Videos, die von Teilnehmern am Trusted Flagger-Programm gemeldet werden, werden aber nicht automatisch entfernt. Sie werden wie alle von Nutzern gemeldeten Videos manuell überprüft, dabei kann die Überprüfung durch unsere Teams jedoch beschleunigt werden. NGOs erhalten außerdem gelegentlich Onlineschulungen zu den YouTube-Richtlinien.

Welche Maßnahmen ergreift YouTube bei Inhalten, die gegen die Community-Richtlinien verstoßen?

Wir verwenden automatisierte Systeme, mit denen Spam automatisch erkannt und entfernt wird. Die Systeme erkennen außerdem, wenn schon geprüfte Inhalte, die gegen unsere Richtlinien verstoßen, noch einmal hochgeladen werden, und entfernen auch diese. YouTube ergreift Maßnahmen gegen andere gemeldete Videos, nachdem sich geschulte Prüfer die betreffenden Videos angesehen haben. Sie stellen fest, ob die Inhalte tatsächlich gegen unsere Richtlinien verstoßen, und schützen dabei Inhalte mit pädagogischem, dokumentarischem, wissenschaftlichem oder künstlerischem Zweck. Videos, die gegen die Richtlinien verstoßen, werden von den Prüfteams entfernt, während bei Inhalten, die nicht für alle Zuschauer geeignet sind, eine Altersbeschränkung festgelegt wird.

Verwarnungen wegen eines Verstoßes gegen die Community-Richtlinien

Wenn unsere Prüfer feststellen, dass Inhalte gegen die Community-Richtlinien verstoßen, werden diese Inhalte entfernt und der Creator wird benachrichtigt. Wenn ein Creator zum ersten Mal gegen die Community-Richtlinien verstößt, erhält er eine Warnung, die keine Konsequenzen für den Kanal hat. Nach der ersten Warnung erhält der Kanal bei weiteren Verstößen eine Verwarnung wegen eines Verstoßes gegen die Community-Richtlinien. Es gelten dann vorübergehende Einschränkungen für das Konto. Zum Beispiel dürfen eine Woche lang keine Videos, Livestreams oder Stories hochgeladen werden. Wenn ein Kanal drei Verwarnungen innerhalb von 90 Tagen erhält, wird er gekündigt. Bei Kanälen, die auf Verstöße gegen die Richtlinien ausgerichtet sind oder einen einzelnen schweren Verstoß begehen, gilt das Verwarnungssystem nicht mehr und sie werden sofort gekündigt. Wenn ein Creator der Meinung ist, dass es sich bei einer Verwarnung oder Kündigung um einen Irrtum handelt, kann er dagegen Beschwerde einlegen. Unsere Teams prüfen dann die Entscheidung noch einmal.

Inhalte mit Altersbeschränkung

Manchmal verstoßen Inhalte nicht gegen die Community-Richtlinien, sind aber möglicherweise für Zuschauer unter 18 Jahren nicht geeignet. In diesen Fällen legt unser Prüfteam eine Altersbeschränkung für das Video fest, damit es für Zuschauer unter 18 Jahren, nicht angemeldete Nutzer und Nutzer im eingeschränkten Modus nicht sichtbar ist. Creator können beim Upload auch eine Altersbeschränkung für ein eigenes Video festlegen, wenn sie glauben, dass es für jüngere Zuschauer nicht geeignet ist.