コンテンツに移動
規定とポリシー

コミュニティ ガイドライン

コミュニティ ガイドライン

概要

YouTube のコミュニティ ガイドラインは、コミュニティを安全に保つために作成されています。このガイドラインでは、YouTube で許可されること、禁止されることが定められており、動画、コメント、リンク、サムネイルなど YouTube プラットフォーム上のあらゆる種類のコンテンツに適用されます。

すべてのコミュニティ ガイドラインは、以下でご覧いただけます。

YouTube は、どのようにして新しいポリシーの作成や既存のポリシーの更新を進めていますか?

YouTube の各ポリシーは、慎重に検討を重ねたうえで、一貫性を保ち、十分な情報に基づいて作成されています。また、世界中のコンテンツに適用されます。ポリシーの作成は、外部のさまざまな業界、ポリシーの専門家、YouTube クリエイターとの連携と協力により進められます。新しいポリシーの実施にあたっては、複数回にわたるテストを行い、YouTube のグローバルな審査チームが正確かつ一貫性を保ってポリシーを適用できることを確認しています。

これは終わりのない作業です。YouTube では、コミュニティの安全性と表現の自由が優れたバランスで両立するように、常にポリシーの評価を続けています。

YouTube はコミュニティ ガイドラインをどのように適用していますか?

YouTube には、1 分間に約 500 時間分の動画がアップロードされています。膨大な量のコンテンツですが、私たちは、YouTube で公開されるすべてのコンテンツがコミュニティ ガイドラインを遵守している状態にするべく、チーム一丸となって取り組んでいます。その実現のため、高度な機械学習システムに加えて YouTube コミュニティの力をお借りすることで、問題となりうるコンテンツが報告されるしくみを作っています。報告されたコンテンツを YouTube の専門の審査担当者が確認し、コミュニティ ガイドラインに違反しているものを削除しています。

YouTube は、コミュニティ ガイドラインに違反するコンテンツをどのように特定していますか?

YouTube には、毎分数百時間もの動画が新たに投稿されています。そのため YouTube では、人による確認と機械学習とを組み合わせ、問題のあるコンテンツを幅広く検出できるようにしています。機械学習はパターンの検出に適しています。そのため視聴される前でも、以前削除したコンテンツに似たコンテンツを見つけ出すことができます。

また YouTube は、コンテンツを迅速に削除する最善の方法は、問題が発生する前に予測することだと考えています。YouTube のインテリジェンス デスクは、ニュース、ソーシャル メディア、ユーザーの報告を監視して不適切なコンテンツに関する新しい傾向を検出します。そのうえで、新たな傾向が大きな問題に発展する前に適切なチームが対処できるようにしています。

コミュニティの一員であるユーザーやクリエイターが不適切なコンテンツを報告する方法はありますか?

YouTube コミュニティにも、ユーザーの視点から不適切と思われるコンテンツを報告する重要な役割を担っていただいています。

  • コミュニティ ガイドラインに違反していると思われるコンテンツがありましたら、YouTube の報告機能を使用してお知らせください。担当チームが審査します。

  • YouTube 公認報告者プログラムでは、政策分野の専門知識をもつ非政府組織(NGO)と政府機関が、確実なコンテンツ報告プロセスを利用できるようにしています。プログラムの参加者は YouTube ポリシーのトレーニングを受け、Trust & Safety の専門家と直接コミュニケーションをとることができます。公認報告者によって報告された動画が自動的に削除されることはなく、他のユーザーから報告された動画と同様に、人による審査の対象となります。ただし、審査を簡略化する場合があります。NGO に対しては、YouTube のポリシーに関するオンライン トレーニングも不定期で提供されます。

YouTube は、教育、ドキュメンタリー、科学、芸術のコンテンツをどのように扱っていますか?

YouTube のコミュニティ ガイドラインに違反している可能性がある動画であっても、その内容を公開する説得力のある理由が視聴者に見える形で示されている場合、YouTube での公開が許可されるケースがあります。通常、YouTube はこの例外を「EDSA」と呼んでいます。「EDSA」は「Educational、Documentary、Scientific、Artistic(教育、ドキュメンタリー、科学、芸術)」の頭文字です。動画が EDSA に関する例外に該当するかどうかを判断する際は、動画のタイトル、説明、表現されている背景など、複数の要素が考慮されます。

YouTube エコシステム全体を有害なコンテンツから保護するよう努める一方で、EDSA に関する例外は、重要な意義のある発信を YouTube で公開し続けるために不可欠な取り組みです。

コミュニティ ガイドラインに違反しているコンテンツに対して、YouTube はどのような措置を講じていますか?

スパム コンテンツ、および審査の結果ポリシー違反とされたにもかかわらず再アップロードされたコンテンツについて、機械学習システムを活用して自動的に特定し、削除しています。YouTube は報告された動画に対して、訓練を受けた審査担当者による審査を行ってから必要な措置を講じています。審査担当者は、コンテンツが YouTube のポリシーに実際に違反しているかどうかを審査するとともに、ドキュメンタリーや科学分野のコンテンツ、教育的または芸術的な意図で作成されたコンテンツの保護も行っています。また、YouTube の審査チームは、ポリシーに違反したコンテンツを削除し、年齢によっては適切でないと思われるコンテンツについては年齢制限を課しています。担当者による審査の内容は、その後、より大きな規模でシステムのトレーニングと精度改善を行うために活用されます。

コミュニティ ガイドラインの違反警告

YouTube の審査担当者により、コンテンツがコミュニティ ガイドラインに違反していると判断されると、そのコンテンツは削除され、クリエイターに通知が送られます。コミュニティ ガイドラインへの違反が初めての場合、クリエイターには事前警告が送信されますが、チャンネルに対するペナルティは課されません。過去に 1 度事前警告を受けたことのあるチャンネルには、コミュニティ ガイドラインの違反警告が発行され、動画、ライブ配信、ストーリーのアップロードが 1 週間できなくなるなど、アカウントが一時的に制限されます。90 日間で違反警告を 3 回受けると、チャンネルは解除されます。また、YouTube のポリシー違反をたびたび繰り返すチャンネルや、一度でも YouTube の深刻な不正利用を行ったチャンネルは、違反警告のプロセスを経ることなく直ちに解除されます。クリエイターが誤審だと考える場合は、すべての違反警告と解除に対して、再審査を請求することができます。この場合、審査チームにより再審査が行われます。

年齢制限のあるコンテンツ

一部のコンテンツは、YouTube のコミュニティ ガイドラインに違反していなくても、18 歳未満の視聴者には適さない場合があります。このような場合、動画には審査チームにより年齢制限が設けられ、18 歳未満の視聴者、ログインしていないユーザー、制限付きモードをオンにしているユーザーには表示されなくなります。また、クリエイター自身が年齢の低い視聴者に適切ではない動画だと考える場合は、アップロード時に動画に年齢制限を設定することも可能です。