Перейти к контенту
Наши обязательства

Наш подход к ИИ

В чем заключается ответственный подход YouTube к генеративному искусственному интеллекту?

Генеративный искусственный интеллект дает авторам новые возможности для создания видео – от идей раскадровки до экспериментов с музыкальными инструментами. Мы гордимся тем, что первыми открыли доступ к этим передовым функциям для всех желающих. И хотя нам не терпится увидеть, как авторы будут использовать ИИ на YouTube, мы серьезно подходим к разработке таких функций, поскольку инновации и ответственность для нас неотделимы друг от друга.

Напоминаем, что любой контент на платформе должен отвечать правилам сообщества. Мы продолжим удалять созданные или измененные с помощью ИИ материалы, которые нарушают наши правила, например содержат дискриминационные высказывания, оскорбления, угрозы, откровенные сцены насилия или неприятные изображения.

Мы также разработали новые правила и продукты, которые помогут нам следить за тем, чтобы пользователи не злоупотребляли ИИ. Это должно обеспечить надежность информации на YouTube – что, как мы считаем, в интересах каждого.

К таким нововведениям относятся:

  • Уведомления о наличии измененного или синтетического контента. Авторы, которые используют в своих видео существенно измененный или созданный с помощью ИИ реалистичный контент, должны будут сообщать об этом в Творческой студии YouTube. Это необходимо, чтобы зрители понимали, реально ли происходящее в видео. Отметки об использовании ИИ будут показываться в описании видео и, если ролик касается деликатной темы (здоровья, новостей, выборов, финансов и т. д.), в видеопроигрывателе.

Финансы

Ярлык видеопроигрывателя

Рукопожатие

Ярлык описания видео

Мы ожидаем, что авторы будут сообщать о наличии измененного или синтетического контента. Однако если мы обнаружим видео с такими материалами без специального уведомления, то можем добавить его сами. Особенно это касается роликов на деликатные темы.

  • Технологии на основе генеративного ИИ для модерации контента. Генеративный ИИ уже помогает нам быстро расширять набор данных, на которых обучаются наши классификаторы ИИ. Это, в свою очередь, позволяет быстрее выявлять недопустимый контент. Повышение скорости и точности наших систем также позволило сократить объемы опасного контента, который нашим специалистам приходится проверять вручную.

Сейчас ключевой момент в развитии искусственного интеллекта, и это лишь несколько примеров нашего ответственного подхода к инновациям. Мы приложим все силы, чтобы авторы могли пользоваться огромными преимуществами новых технологий и при этом каждый участник сообщества чувствовал себя на платформе безопасно и знал, что информации на ней можно доверять.