コンテンツ フィルタリングにより、AI によって生成される出力は、倫理的なガイドラインと安全基準に準拠します。 Azure OpenAI には、有害または不適切なコンテンツのさまざまなカテゴリに関連するリスクの特定と軽減に役立つコンテンツ フィルター機能が用意されています。 このドキュメントでは、組み込みのコンテンツ フィルタリング システムの理解を深めるために役立つ主要なリスク カテゴリとその説明について説明します。
注
憎悪、性的、暴力、自傷行為のカテゴリに対するテキスト コンテンツ フィルター処理モデルは、英語、ドイツ語、日本語、スペイン語、フランス語、イタリア語、ポルトガル語、中国語でトレーニングおよびテストされています。 サービスはその他の多くの言語でも利用いただけます (品質は言語によって異なる場合があります)。 いずれの場合も、独自のテストを実行して、アプリケーションに対して動作することを確認する必要があります。