Prezentare generală
Regulile comunității sunt concepute pentru a asigura protecția comunității noastre. Acestea descriu ce este permis și ce este interzis pe YouTube și se aplică pentru toate tipurile de conținut de pe platformă, inclusiv videoclipuri, comentarii, linkuri și miniaturi.
Mai jos se află o listă a Regulilor comunității.
Spam și practici înșelătoare
Conținut delicat
Conținut violent sau periculos
Bunuri reglementate
Mai multe
Cum dezvoltăm politici noi și le actualizăm pe cele existente?
Fiecare dintre politicile noastre este concepută atent pentru a fi consecventă, bazată pe date și aplicabilă pentru conținutul din întreaga lume. Sunt dezvoltate în parteneriat cu o gamă largă de experți externi în domeniu și în politici, precum și creatori YouTube. Politicile noi trec prin mai multe etape de testare înainte de a fi lansate live pentru a ne asigura că echipa globală de evaluatori ai conținutului pot să le aplice corect și consecvent.
Aceste eforturi sunt continue și ne evaluăm constant politicile pentru a înțelege cum putem găsi un echilibru bun între protejarea comunității YouTube și libertatea de exprimare a tuturor.
Cum identifică YouTube conținutul care încalcă Regulile comunității?
Cu sute de ore de conținut nou încărcate pe YouTube în fiecare minut, folosim examinările manuale și învățarea automată pentru a detecta conținut problematic, la scară largă. Învățarea automată este potrivită pentru detectarea tiparelor, ceea ce ne ajută să identificăm conținut similar cu alt conținut care a fost deja eliminat, înainte chiar ca acesta să fie vizionat.
Știm și că modalitatea cea mai bună de a elimina rapid conținut este să anticipăm problemele care ar putea apărea. Intelligence Desk monitorizează știrile, rețelele sociale și rapoartele utilizatorilor pentru a detecta noi tendințe legate de conținut neadecvat și depune eforturi pentru a se asigura că echipele noastre sunt pregătite să le abordeze înainte să devină o problemă mai mare.
Există un mod prin care comunitatea să semnaleze conținut dăunător?
Deși ne-am angajat să continuăm reducerea expunerii la videoclipuri care ne încalcă politicile și avem o echipă de peste 10.000 de oameni care detectează, examinează și elimină conținutul care ne încalcă politicile, comunitatea YouTube joacă un rol important prin semnalarea conținutului pe care îl consideră neadecvat.
-
Dacă îți apare conținut care consideri că încalcă Regulile comunității, poți să folosești funcția de semnalare pentru a trimite conținutul spre examinare.
-
Am dezvoltat Programul de semnalare avansată a conținutului YouTube pentru a le oferi procese de raportare eficiente organizațiilor neguvernamentale (ONG) cu experiență în domeniul politicilor, agențiilor guvernamentale și persoanelor fizice cu rate de succes ridicate în semnalare. Participanții beneficiază de instruire cu privire la politicile YouTube și au o cale de comunicare directă cu specialiștii noștri în Încredere și siguranță. Videoclipurile semnalate de Colaboratorii de încredere pentru semnalări nu sunt eliminate automat. Sunt supuse aceleași examinări manuale precum videoclipurile semnalate de orice alt utilizator, dar examinarea de către echipele noastre poate fi accelerată. Organizațiile neguvernamentale beneficiază și de instruire online ocazională cu privire la politicile YouTube.
Ce măsuri ia YouTube în privința conținutului care încalcă Regulile comunității?
Sistemele de învățare automată ne ajută să identificăm și să eliminăm automat spamul, precum și să eliminăm reîncărcările de conținut pe care l-am examinat deja și am determinat că ne încalcă politicile. YouTube ia măsuri în privința altor videoclipurilor semnalate după examinarea acestora de către evaluatori umani pregătiți. Aceștia determină dacă un conținut ne încalcă politicile și protejează conținutul care are scop educațional, științific, artistic sau de documentar. Echipele de evaluatori elimină conținutul care ne încalcă politicile și restricționează în funcție de vârstă conținutul care poate să nu fie adecvat pentru toate segmentele de public.
Avertismente privind Regulile comunității
Dacă evaluatorii decid că un conținut încalcă Regulile comunității, eliminăm conținutul și trimitem o notificare creatorului. Când un Creator încalcă pentru prima dată Regulile comunității, va primi o atenționare, fără să fie penalizat canalul. După o atenționare, vom emite un avertisment privind Regulile comunității împotriva canalului, iar contul va fi supus unor restricții temporare, inclusiv faptul că nu va mai putea să încarce videoclipuri ori să transmită streamuri live sau Momente timp de o săptămână. Canalele care primesc trei avertismente într-un interval de 90 de zile vor fi desființate. În cazul canalelor care ne încalcă intenționat politicile sau au un singur caz de abuz grav al platformei, nu vom aplica sistemul de avertismente, ci le vom desființa direct. Se poate face recurs pentru toate avertismentele și desființările în cazul în care creatorul crede că a existat o eroare, iar echipele noastre vor reexamina decizia.
Resurse
Conținutul restricționat în funcție vârstă
Uneori, conținutul nu încalcă Regulile comunității, dar poate să nu fie adecvat pentru spectatorii cu vârsta sub 18 ani. În astfel de cazuri, echipa de evaluatori va plasa o restricție în funcție de vârstă asupra videoclipului, astfel încât să nu mai fie vizibil pentru spectatorii care au sub 18 ani, utilizatorii neconectați și cei care au activat Modul restricționat. Creatorii pot alege și să-și restricționeze în funcție de vârstă propriul conținut la momentul încărcării, dacă sunt de părere că nu este adecvat pentru publicul mai tânăr.