Hvad gør YouTube for at sikre, at der ikke er utilsigtet skadelig bias i systemerne?
Vi bruger folk fra hele verden til at træne vores systemer til søgning og opdagelse. De bruger retningslinjer, der er offentligt tilgængelige. Vores søge- og anbefalingssystemer er ikke designet til at filtrere eller nedrykke videoer eller kanaler baseret på specifikke politiske perspektiver.
Derudover gennemgår vi vores maskinlæringssystemer grundigt for bedre at sikre, at utilsigtet, algoritmisk bias, f.eks. kønsbias, ikke findes. Vi retter fejl, når vi opdager dem, og genoplærer systemerne til at være mere nøjagtige fremover.
Er YouTubes politikker uretfærdigt møntet på bestemte grupper eller politiske holdninger?
Når vi udvikler og fornyer vores politikker, sørger vi for at inddrage mange forskellige synspunkter, heriblandt fra youtubere, fagspecifikke eksperter, fortalere for ytringsfrihed og politiske organisationer fra et bredt politisk spektrum.
Når der er udviklet en ny politik, investerer vi en betydelig mængde tid i at sikre, at nye politikker håndhæves konsekvent af vores globale team af kontrollanter på baggrund af objektive vejledninger. Før en politik indføres, skal kontrollanter i et afprøvningsmiljø (hvor beslutninger ikke rent faktisk er gældende) konsekvent træffe den samme beslutning i et meget højt omfang. Gør de ikke det, reviderer vi oplæringen og de interne retningslinjer for at sikre klarhed, og så gentager vi processen. Målet er at reducere subjektivitet og personlig forudindtaget behandling for at opnå høj nøjagtighed og ensartethed, når der arbejdes i et stort omfang. Først når vi opnår et acceptabelt nøjagtighedsniveau, kan politikken offentliggøres.