次の方法で共有


OpenAI 互換の Google Gemini API をインポートする

適用対象: すべての API Management レベル

この記事では、OpenAI と互換性のある Google Gemini API をインポートして、 gemini-2.0-flashなどのモデルにアクセスする方法について説明します。 これらのモデルでは、Azure API Management で OpenAI と互換性のあるチャット入力候補エンドポイントを管理できます。

API Management での AI API の管理の詳細については、以下を参照してください。

[前提条件]

ポータルを使用して OpenAI と互換性のある Gemini API をインポートする

  1. Azure portal で、API Management インスタンスに移動します。

  2. 左側のメニューの [API] で、[API]>[+ API の追加] を選択します。

  3. [ 新しい API の定義] で、[ 言語モデル API] を選択します。

    ポータルでパススルー言語モデル API を作成するスクリーンショット。

  4. [ API の構成 ] タブで、次の手順を実行します。

    1. API の表示名と、必要に応じて説明を入力します。

    2. URL に、Gemini OpenAI 互換性ドキュメントから次のベース URL を入力します。https://generativelanguage.googleapis.com/v1beta/openai

    3. [パス] で、要求を Gemini API エンドポイントにルーティングするために API Management インスタンスが使用するパスを追加します。

    4. [種類] で、[OpenAI API の作成] を選択します。

    5. アクセス キーで、次のように入力します。

      1. ヘッダー名: Authorization
      2. ヘッダー値 (キー):Bearer後に Gemini API の API キーが続きます。

    ポータルで Gemini LLM API をインポートするスクリーンショット。

  5. 残りのタブで、必要に応じて、トークンの使用、セマンティック キャッシュ、AI コンテンツの安全性を管理するポリシーを構成します。 詳細については、「 言語モデル API のインポート」を参照してください。

  6. [レビュー] を選択します。

  7. 設定が検証されたら、[作成] を選択します。

API Management によって API が作成され、次の構成が行われます。

Gemini モデルをテストする

API をインポートした後、API のチャット完了エンドポイントをテストできます。

  1. 前の手順で作成した API を選択します。

  2. [テスト] タブを選びます。

  3. POST Creates a model response for the given chat conversation操作を選択します。これはPOST要求であり、/chat/completionsエンドポイントに送信されます。

  4. [ 要求本文 ] セクションで、次の JSON を入力してモデルとプロンプトの例を指定します。 この例では、 gemini-2.0-flash モデルが使用されます。

    {
        "model": "gemini-2.0-flash",
        "messages": [
            {
                "role": "system",
                "content": "You are a helpful assistant"
            },
            {
                "role": "user",
                "content": "How are you?"
            }
        ],
        "max_tokens": 50
    }
    

    テストが成功すると、バックエンドは成功した HTTP 応答コードと一部のデータで応答します。 応答に追加されるのは、言語モデルのトークン消費を監視および管理するのに役立つトークン使用状況データです。

    ポータルでの Gemini LLM API のテストのスクリーンショット。