Jak YouTube zajišťuje, aby jeho systémy nebyly nezáměrně zaujaté škodlivým způsobem?
K učení systémů vyhledávání a objevování využíváme lidi z celého světa. Pokyny, kterými se řídí, jsou přitom veřejně dostupné. Naše systémy vyhledávání a doporučování nejsou navržené tak, aby filtrovaly videa nebo kanály na základě konkrétních politických postojů nebo je posouvaly dolů ve výsledcích.
Kromě toho kontrolujeme systémy strojového učení, abychom zajistili, že v algoritmech nevzniká nezamýšlené zaujetí, například proti pohlaví. Opravujeme chyby, které najdeme, a znovu učíme systémy, aby byly v budoucnosti přesnější.
Jsou zásady YouTube nespravedlivě namířené proti některým skupinám nebo politickým postojům?
Při vytváření a aktualizaci zásad konzultujeme řadu různých hlasů včetně autorů, odborníků na daná témata, ochránců svobody projevu a politických organizací z celého politického spektra.
Jakmile zásady vytvoříme, investujeme značný čas, abychom zajistili, že náš globální tým recenzentů důsledně prosazuje dodržování těchto zásad na základě objektivních pokynů. Než nějaké zásady zavedeme, musí kontroloři v testovacím prostředí (kde se rozhodnutí ohledně zásad ve skutečnosti neuplatňují) stabilně docházet ke stejnému rozhodnutí s velmi vysokou mírou shody. V opačném případě provedeme revizi výcviku a interních pokynů, aby byla zajištěna jejich srozumitelnost, a proces opakujeme. Cílem je omezit subjektivitu a osobní zaujatost a dosáhnout vysoké přesnosti a konzistence ve velkém měřítku. Zásady zveřejňujeme teprve poté, co dosáhneme přijatelné přesnosti.