Naar content
Richtlijnen en beleid

Communityrichtlijnen

Communityrichtlijnen

Communityrichtlijnen

Onze communityrichtlijnen werden ontwikkeld om onze community te beschermen. Die richtlijnen bepalen wat wel en niet is toegelaten op YouTube, en zijn van toepassing voor elk type content op ons platform: video’s, reacties, links en thumbnails.

Hieronder vind je het volledig overzicht van onze communityrichtlijnen:

Hoe ontwikkelen we nieuw beleid en hoe updaten we ons bestaande beleid?

Al ons beleid is zorgvuldig opgesteld zodat het consistent en goed geïnformeerd is en zodat we het kunnen toepassen op content van over de hele wereld. Het beleid is ontwikkeld in samenwerking met veel verschillende externe experts uit de branche, beleidsexperts en YouTube-creators. Nieuwe beleidsregels doorlopen verschillende testronden voordat ze in gebruik worden genomen, zodat ons wereldwijde team van contentbeoordelaars deze regels nauwkeurig en consistent kan toepassen.

Dit werk is nooit echt af en we blijven ons beleid evalueren om te ontdekken hoe we een goede balans kunnen houden tussen de YouTube-community beschermen en iedereen een stem geven.

Hoe identificeert YouTube content die de communityrichtlijnen schendt?

Er worden elke minuut honderden uren aan nieuwe content geüpload op YouTube. Daarom gebruiken we een combinatie van mensen en machine learning om problematische content op grote schaal te detecteren. Machine learning is zeer geschikt om patronen te herkennen, waardoor we content kunnen opsporen die vergelijkbaar is met content die we al hebben verwijderd, nog voordat deze content bekeken wordt.

We zijn van mening dat we ongewenste content het snelst kunnen verwijderen door te anticiperen op problemen nog voordat ze ontstaan. Onze Intelligence Desk houdt het nieuws, social media en gebruikersrapporten in de gaten om nieuwe trends voor ongepaste content te detecteren. Zo kunnen onze teams deze content aanpakken voordat het een groter probleem wordt.

Is er een manier waarop de community schadelijke content kan markeren?

We doen ons best om de blootstelling aan video's die ons beleid schenden te blijven beperken. Meer dan 10.000 mensen werken aan het detecteren, beoordelen en verwijderen van content die in strijd is met onze richtlijnen. Ook de YouTube-community speelt een belangrijke rol door het markeren van mogelijk ongepaste content.

  • Als je content ziet die mogelijk in strijd is met onze Communityrichtlijnen, kun je onze functie voor het melden van ongepaste content gebruiken om content te laten beoordelen.

  • We hebben het YouTube-programma voor vertrouwde rapporteurs ontwikkeld om robuuste processen voor contentrapportage te bieden aan overheidsinstanties, niet-gouvernementele organisaties (ngo's) met expertise op een bepaald beleidsgebied, en individuen met een hoge mate van nauwkeurigheid bij het markeren. Deelnemers krijgen training over de beleidsregels van YouTube en staan rechtstreeks in verbinding met de specialisten van ons Trust & Safety-team. Video's die door vertrouwde rapporteurs zijn gemarkeerd, worden niet automatisch verwijderd. Ze worden handmatig beoordeeld, net als video's die door andere gebruikers zijn gemarkeerd, maar ze worden misschien wel sneller door onze teams behandeld. Ngo's krijgen af en toe ook online training over het beleid van YouTube.

Welke actie onderneemt YouTube tegen content die de Communityrichtlijnen schendt?

Met machine learning kunnen we spam automatisch herkennen en verwijderen. Hetzelfde geldt voor re-uploads van content die we al hebben beoordeeld en waarvan we hebben vastgesteld dat deze ons beleid schendt. YouTube onderneemt actie tegen andere gemarkeerde video's nadat deze zijn beoordeeld door getrainde reviewers. Zij beoordelen of de content inderdaad ons beleid schendt en ze beschermen content met een educatief, documentair, wetenschappelijk of artistiek doel. Onze beoordelingsteams verwijderen content die ons beleid schendt en stellen een leeftijdsbeperking in voor content die misschien niet geschikt is voor alle leeftijden.

Waarschuwingen vanwege schending van de Communityrichtlijnen

Als onze reviewers bepalen dat content onze Communityrichtlijnen schendt, verwijderen we de content en sturen we een melding naar de creator. Als het de eerste keer is dat een creator onze Communityrichtlijnen schendt, krijgt de creator een melding, maar worden er geen maatregelen genomen tegen het account. Na die eerste melding geven we een waarschuwing vanwege schending van de Communityrichtlijnen en worden er tijdelijke beperkingen aan het account opgelegd. De creator kan dan bijvoorbeeld 1 week geen video's, livestreams of stories uploaden. Kanalen die binnen 90 dagen 3 waarschuwingen krijgen, worden beëindigd. Kanalen die erop gericht zijn om ons beleid te schenden of kanalen die eenmalig ernstig misbruik maken van het platform, krijgen geen waarschuwingen en worden meteen beëindigd. Tegen alle waarschuwingen en beëindigingen kan bezwaar worden gemaakt als de creator vindt dat er een fout is gemaakt. Onze teams zullen de beslissing dan opnieuw beoordelen.

Video's met leeftijdsbeperking

Soms schendt content onze Communityrichtlijnen niet, maar is de content mogelijk niet geschikt voor kijkers onder de 18 jaar. In zulke gevallen stelt ons beoordelingsteam een leeftijdsbeperking in voor de video zodat deze niet zichtbaar is voor kijkers onder de 18 jaar, uitgelogde gebruikers of gebruikers die de beperkte modus hebben aangezet. Creators kunnen er ook voor kiezen om bij het uploaden een leeftijdsbeperking in te stellen voor hun eigen video's als ze vinden dat hun video's niet geschikt zijn voor een jonger publiek.