Vai ai contenuti
Regole e norme

Norme della community

Norme della community

Panoramica

Le Norme della community sono elaborate per assicurare la protezione della nostra community. Indicano quali contenuti sono consentiti su YouTube e quali invece non lo sono e si applicano a tutti i tipi di contenuti sulla nostra piattaforma, come video, commenti, link e miniature.

Di seguito trovi un elenco completo delle nostre Norme della community:

Come sviluppiamo nuove norme e aggiorniamo quelle esistenti?

Tutte le nostre norme sono elaborate con attenzione per assicurare che siano coerenti e ragionate e che possano essere applicate a contenuti provenienti da tutto il mondo. Vengono sviluppate in collaborazione con numerosi esperti di norme indipendenti specializzati nel settore, oltre ai creator di YouTube. Le nuove norme vengono testate a lungo prima di essere pubblicate, per assicurare che il nostro team globale di revisione dei contenuti possa applicarle in modo accurato e uniforme.

Si tratta di un lavoro sempre in corso e valutiamo di continuo le nostre norme per capire come trovare un equilibrio migliore tra mantenere protetta la community di YouTube e dare a ciascuno lo spazio di esprimersi.

In che modo YouTube identifica i contenuti che violano le Norme della community?

Ogni minuto vengono caricate su YouTube centinaia di ore di nuove contenuti. Per questo, utilizziamo una combinazione di risorse umane e machine learning per rilevare su vasta scala i contenuti problematici. Il machine learning si presta in maniera ideale per rilevare i modelli, consentendoci di individuare i contenuti simili ad altri che abbiamo già rimosso, addirittura prima che qualcuno li guardi.

Siamo consapevoli, inoltre, che il modo migliore per rimuovere in tutta rapidità i contenuti è anticipare i problemi prima che si manifestino. Il nostro Intelligence Desk monitora le notizie, i social media e le segnalazioni degli utenti per individuare nuove tendenze riguardanti i contenuti inappropriati e preparare così i nostri team a reagire adeguatamente prima che tali contenuti possano porre problemi importanti.

Esiste un modo in cui la community può segnalare i contenuti dannosi?

Siamo decisi a continuare a ridurre l'esposizione ai video che violano le nostre norme e contiamo su oltre 10.000 persone incaricate di rilevare, esaminare e rimuovere tali contenuti. Per raggiungere questi obiettivi, anche la community di YouTube svolge un ruolo importante nel segnalare i contenuti ritenuti inappropriati.

*Abbiamo sviluppato lo YouTube Trusted Flagger Program per fornire ulteriori validi strumenti di segnalazione dei contenuti alle organizzazioni non governative (ONG) con esperienza in un'area normativa, agli enti statali e ai privati con elevati tassi di precisione delle segnalazioni. I membri del programma ricevono formazione sulle norme di YouTube e hanno a disposizione un canale di comunicazione diretto con i nostri esperti di Trust & Safety. I video identificati dai segnalatori attendibili non vengono rimossi in automatico, ma vengono sottoposti alla revisione da parte di persone fisiche come i video segnalati da qualsiasi altro utente, sebbene il processo di revisione da parte dei nostri team potrebbe risultare più rapido. Le ONG ricevono inoltre corsi di formazione online occasionali sulle norme di YouTube.

Quali provvedimenti prende YouTube per i contenuti che violano le Norme della community?

I sistemi di machine learning ci aiutano a identificare e rimuovere automaticamente lo spam e i ricaricamenti di contenuti già vagliati e considerati non conformi alle nostre norme. YouTube interviene sugli altri video segnalati dopo i controlli dei nostri revisori esperti, valutando se i contenuti violano effettivamente le nostre norme e tutelando quelli con finalità educative, documentaristiche, scientifiche o artistiche. I nostri team di revisori rimuovono i contenuti che violano le nostre norme e applicano un limite di età per i contenuti che potrebbero non essere appropriati per tutte le fasce di pubblico.

Avvertimenti relativi alle Norme della community

Se i nostri revisori stabiliscono che i contenuti violano le nostre Norme della community, li rimuoviamo e inviamo una notifica al creator. Se è la prima volta che un creator viola le nostre Norme della community, riceverà soltanto un avviso, senza alcuna sanzione per il canale. Dopo il primo avviso, emetteremo un avvertimento relativo alle Norme della community per il canale e l'account verrà sottoposto a limitazioni temporanee compreso il divieto di caricare video, live streaming o storie per una settimana. I canali che ricevono tre avvertimenti in un periodo di 90 giorni vengono chiusi. I canali che cercano appositamente di violare le nostre norme o presentano anche un solo caso di comportamento illecito grave sulla piattaforma non vengono considerati dal sistema di avvertimenti ma vengono direttamente chiusi. Se il creator ritiene che sia stato commesso un errore, può fare ricorso contro tutti gli avvertimenti e le chiusure e i nostri team esamineranno di nuovo la decisione presa in origine.

Contenuti soggetti a limiti di età

Alcuni contenuti, pur non violando le nostre Norme della community, potrebbero non essere appropriati per gli spettatori di età inferiore ai 18 anni. In questi casi, il nostro team di revisori applicherà un limite di età al video in modo che non sia visibile agli spettatori che hanno meno di 18 anni, agli utenti che non hanno effettuato l'accesso o che hanno attivato la Modalità con restrizioni. Al momento del caricamento, i creator possono comunque scegliere di applicare un limite di età ai propri contenuti se pensano che non siano adatti al pubblico più giovane.