Hur ser YouTube till att oavsiktlig partiskhet inte förekommer i systemen?
Vi låter människor över hela världen träna upp våra sök- och upptäcktssystem. De följer riktlinjer som är allmänt tillgängliga. Våra sök- och rekommendationssystem är inte utformade för att filtrera eller flytta ned videor eller kanaler baserat på politiska perspektiv.
Dessutom granskas våra system för maskininlärning för att se till att oavsiktlig partiskhet, som könsbaserad partiskhet, inte förekommer i algoritmen. Vi korrigerar fel när vi hittar dem och tränar om systemen till att vara mer korrekta i fortsättningen.
Utpekas vissa grupper eller politiska åsikter på ett orättvist sätt genom YouTubes policyer?
När vi utvecklar och uppdaterar våra policyer lyssnar vi till många olika röster, som kreatörer, ämnesexperter, förespråkare för yttrandefrihet och organisationer från hela det politiska spektrumet.
När en ny policy har tagits fram ägnar vi mycket tid åt att se till att den tillämpas på ett konsekvent sätt med hjälp av vårt globala team av granskare, med utgångspunkt i objektiva riktlinjer. Innan den nya policyn kan införas måste granskarna (i en låtsasmiljö där policybeslut inte är verkliga) fatta samma beslut, varje gång och mycket snabbt. Om de inte lyckas med det ändrar vi upplärningen och de interna riktlinjerna för att uppnå klarhet och upprepar sedan processen. Målet är att minska subjektivitet och partiskhet för att uppnå större korrekthet och konsekvens vid tillämpning i stor skala. Det krävs en viss nivå av korrekthet för att införa en policy offentligt.