Was ist der Unterschied zwischen Hassrede und Belästigung?
Mit unseren Richtlinien zu Hassrede werden bestimmte Gruppen und deren Mitglieder geschützt. Inhalte, die dagegen verstoßen, werden entfernt. Wir sprechen von Hassrede, wenn Inhalte zu Hass oder Gewalt gegen Gruppen aufgrund von geschützten Merkmalen wie Alter, Geschlecht, Herkunft, Kaste, Religion, sexuelle Orientierung oder Veteranenstatus aufrufen. Diese Richtlinien umfassen auch gängige Formen von Hass im Netz. Beispiele dafür sind unter anderem entmenschlichende Äußerungen gegenüber diesen Gruppen, die Bezeichnung dieser Gruppen als grundlegend unterlegen oder krank, die Verherrlichung hasserfüllter Ideologien wie Nazismus, die Verbreitung von Verschwörungstheorien rund um diese Gruppen oder die Verleugnung gut dokumentierter Ereignisse wie Amokläufe an Schulen.
Durch unsere Richtlinien zu Belästigung werden identifizierbare Einzelpersonen geschützt. Inhalte, die gegen diese Richtlinien verstoßen, werden von uns entfernt. Wir sprechen von Belästigung, wenn Einzelpersonen aufgrund von unveränderlichen Eigenschaften wiederholt oder böswillig beleidigt werden, zum Beispiel aufgrund körperlicher Merkmale oder der Zugehörigkeit zu einer geschützten Gruppe. Diese Richtlinien umfassen auch schädliche Verhaltensmuster wie absichtliche Beleidigungen oder Erniedrigungen gegenüber Minderjährigen, Drohungen, Mobbing, Doxing oder die Ermutigung zu unangemessenem Fanverhalten.
Ressourcen
Wie geht YouTube mit schädlichen Verschwörungstheorien um?
Als Teil unserer Richtlinien zu Hass und Belästigung werden Inhalte untersagt, die Einzelpersonen oder Gruppen zur Zielscheibe von Verschwörungstheorien machen, mit denen Gewalt in der realen Welt gerechtfertigt wird. Ein Beispiel dafür sind Inhalte, in denen eine Person bedroht oder belästigt wird, indem ihr eine vermeintliche Rolle in dieser gefährlichen Verschwörungstheorie zugesprochen wird, wie dies beispielsweise bei QAnon oder Pizzagate der Fall ist. Wie immer kommt es auf den Kontext an. Neutrale Nachrichtenbeiträge zu diesen Themen oder Inhalte, bei denen keine Einzelpersonen oder geschützte Gruppen an den Pranger gestellt werden, können unter Umständen auf der Plattform bleiben. Da die Gruppen, die diese Verschwörungstheorien verbreiten, sich ständig weiterentwickeln und ihre Taktiken ändern, werden wir auch in Zukunft unsere Richtlinien an die aktuelle Situation anpassen und die jeweils erforderlichen Maßnahmen ergreifen, um unserer Selbstverpflichtung nachzukommen.
Wie setzt YouTube die Richtlinien zu Hassrede und Belästigung durch?
Hassrede und Belästigung sind komplexe Richtlinienbereiche, die nicht ohne Weiteres global durchgesetzt werden können. Jede Entscheidung erfordert ein umfassendes Verständnis der jeweiligen Sprachen und Hintergründe. Unsere Prüfteams haben das erforderliche sprachliche und inhaltliche Know-how, um uns bei der Durchsetzung unserer Richtlinien zu unterstützen. Außerdem setzen wir auf maschinelles Lernen, um potenziell hasserfüllte Kommentare aktiv zu erkennen und zur manuellen Überprüfung weiterzuleiten. In jedem Quartal entfernen wir Tausende Videos und Kanäle, die gegen die Richtlinien verstoßen. Bei Kanälen, die sich wiederholt nicht an unsere Richtlinien halten, werden strenge Maßnahmen ergriffen. Sie können zum Beispiel aus dem YouTube-Partnerprogramm entfernt werden, sodass sie keine Einnahmen mehr mit ihren Inhalten erzielen können. Außerdem ist es möglich, dass Verwarnungen ausgesprochen und Inhalte entfernt werden. Unter Umständen wird auch der gesamte Kanal gekündigt.
Betreffen diese Richtlinien vor allem politische Meinungen, mit denen YouTube nicht einverstanden ist?
Wenn wir Richtlinien erstellen oder überarbeiten, holen wir Feedback aus verschiedenen Quellen ein, wie Creator, Fachexperten, Vertreter der freien Meinungsäußerung und politischen Organisationen entlang des politischen Spektrums. Nach der Erarbeitung einer Richtlinie investieren wir viel Zeit, um die kontinuierliche Durchsetzung der neuen Richtlinien durch unser globales Prüfteam anhand objektiver Leitfäden zu gewährleisten. Dabei spielt es keine Rolle, wer die Inhalte postet. Wir wünschen uns authentische Stimmen und Meinungen auf unserer Plattform. Nur so gelingen Vielfalt und ein reger Meinungsaustausch.
Gibt es Ausnahmen bei der Durchsetzung der Richtlinien zu Hassrede?
YouTube ist eine Plattform für freie Meinungsäußerung. Hassrede ist nicht erlaubt. Es gelten jedoch Ausnahmen für Videos mit klaren pädagogischen, dokumentarischen, wissenschaftlichen oder künstlerischen Zwecken. Eine Dokumentation über eine Hassgruppe wäre beispielsweise trotz darin enthaltener Hassrede erlaubt – solange der dokumentarische Zweck klar ersichtlich ist, die Hassrede darin nicht verherrlicht wird und die Zuschauer ausreichend Kontext erhalten, um Inhalte und Botschaften auch entsprechend einordnen zu können. Das ist jedoch kein Freibrief für Hassrede. Inhalte, die deiner Meinung nach gegen unsere Richtlinien zu Hassrede verstoßen, kannst du unseren Teams zur Überprüfung melden.
Wie reagiert YouTube auf wiederholte Belästigung?
Wir entfernen Inhalte, die gegen unsere Richtlinien zu Belästigung verstoßen. Manchmal zeigt sich Belästigung auch in Form eines wiederkehrenden schädlichen Verhaltensmusters, das sich durch mehrere Videos oder Kommentare zieht, auch wenn bei den einzelnen Videos selbst noch kein Richtlinienverstoß vorliegt. Kanäle, die wiederholt gegen unsere Richtlinien zu Belästigung verstoßen, werden für das YouTube-Partnerprogramm gesperrt. Dadurch können sie keine Einnahmen mehr auf YouTube erzielen. Uns ist es wichtig, dass diese Einnahmen nur Creatorn zugute kommen, die sich an die Regeln halten. Möglicherweise erhalten diese Kanäle auch Verwarnungen, die dazu führen können, dass Inhalte entfernt werden. Auch die Kündigung von Konten ist möglich.
Wie können Creator sich selbst schützen und den Umgangston in der Community auf ihrem Kanal beeinflussen?
Mit unseren Richtlinien und Systemen wollen wir Creator so gut es geht vor Hass und Belästigung schützen. Wir haben aber auch eine Reihe von Tools entwickelt, mit deren Hilfe sie selbst aktiv werden können.
Creator haben beispielsweise Zugang zu Moderationstools für Kommentare, mit denen sie den allgemeinen Umgangston auf ihrem Kanal beeinflussen können. Potenziell unangemessene Kommentare werden zur Überprüfung zurückgehalten. So können Creator am besten entscheiden, was für ihre Zuschauer geeignet ist und was nicht. Andere Tools bieten Creatorn die Möglichkeit, bestimmte Wörter in den Kommentaren zu sperren, die Kommentarfunktion für bestimmte Nutzer zu deaktivieren oder Moderatoren mit der Überwachung von Kommentaren zu beauftragen.
Um einen respektvollen Umgangston auf YouTube zu fördern, werden Verfasser außerdem gewarnt, wenn ihr Kommentar potenziell anstößig ist. Dadurch haben sie die Gelegenheit, sich den Inhalt vor dem Posten noch einmal anzusehen und zu ändern.*
In diesem Hilfeartikel findest du weitere Informationen zur Sicherheit von Creatorn auf YouTube. Wir wissen, dass es noch viel zu tun gibt, und werden auch in Zukunft daran arbeiten, YouTube noch sicherer zu machen.
*Die Verfügbarkeit der Funktion variiert je nach Land. Wir arbeiten daran, die Funktion in weiteren Ländern einzuführen.