次の方法で共有


クイック スタート: Azure AI Foundry の概要

このクイック スタートでは、 Azure AI Foundry SDK を使用してローカル開発環境を設定する手順について説明します。 プロンプトを記述し、それをアプリ コードの一部として実行し、実行されている LLM 呼び出しをトレースし、LLM の出力に対して基本的な評価を実行します。

Tip

この記事の残りの部分では、 ハブ ベースのプロジェクトを使用する方法について説明します。 代わりに Foundry プロジェクト を使用する場合は、この記事の上部にある Foundry プロジェクトを選択します。 必要なプロジェクトの種類

Prerequisites

  • Azure サブスクリプション。 Azure サブスクリプションをお持ちでない場合は、開始する前に無料アカウントを作成してください。
  • ハブ ベースのプロジェクト。 Azure AI Foundry を初めて使用していて、ハブ ベースのプロジェクトがない場合は、この記事の上部にある Foundry プロジェクト を選択して、代わりに Foundry プロジェクトを使用します。

開発環境を設定する

  1. 開発環境を設定する

  2. これらのパッケージをインストールします。

    pip install azure-ai-inference azure-identity azure-ai-projects==1.0.0b10
    

    Note

    プロジェクトの種類が異なると、 azure-ai-projects パッケージのバージョンが異なります。 競合を回避するには、別の Python 環境を作成します。ハブ ベースのプロジェクトにはバージョン 1.0.0b10 を使用し、Foundry プロジェクトには最新バージョンを使用します。

モデルをデプロイする

Tip

Azure AI Foundry ポータルで 左側のウィンドウをカスタマイズ できるため、これらの手順に示されている項目とは異なる項目が表示される場合があります。 探しているものが表示されない場合は、左側のペインの下部にある… もっと見るを選択してください。

  1. Azure AI Foundry にサインインします。

  2. ハブ ベースのプロジェクトを選択します。 ハブ ベースのプロジェクトがない場合は、この記事の上部にある Foundry プロジェクト を選択して、代わりに Foundry プロジェクトを使用します。

  3. 左側のウィンドウから [モデル カタログ ] を選択します。

  4. モデルの一覧から gpt-4o-mini モデルを選択します。 検索バーを使用して見つけることができます。

  5. モデルの詳細ページで、[デプロイ] を選択します。

    モデルをデプロイするためのボタンがあるモデル詳細ページのスクリーンショット。

  6. [デプロイ名] は既定値のままにします。 Select Deploy.

  7. モデルがデプロイされたら、[プレイグラウンドで開く] を選択してモデルをテストします。

チャット アプリをビルドする

chat.py という名前のファイルを作成します。 次のコードをコピーしてそれに貼り付けます。

from azure.ai.projects import AIProjectClient
from azure.identity import DefaultAzureCredential

project_connection_string = "<your-connection-string-goes-here>"

project = AIProjectClient.from_connection_string(
    conn_str=project_connection_string, credential=DefaultAzureCredential()
)

chat = project.inference.get_chat_completions_client()
response = chat.complete(
    model="gpt-4o-mini",
    messages=[
        {
            "role": "system",
            "content": "You are an AI assistant that speaks like a techno punk rocker from 2350. Be cool but not too cool. Ya dig?",
        },
        {"role": "user", "content": "Hey, can you help me with my taxes? I'm a freelancer."},
    ],
)

print(response.choices[0].message.content)

接続文字列を挿入する

コードから Azure AI Foundry Models で Azure OpenAI を呼び出すには、プロジェクト接続文字列が必要です。

Azure AI Foundry プレイグラウンドのクイックスタートで作成した Azure AI Foundry プロジェクト内で接続文字列を見つけます。 プロジェクトを開いて、[概要] ページで接続文字列を見つけます。

プロジェクトの概要ページと接続文字列の場所を示すスクリーンショット。

接続文字列をコピーし、<your-connection-string-goes-here> ファイル内の を置き換えます。

チャット スクリプトを実行する

スクリプトを実行して、モデルからの応答を確認します。

python chat.py

ユーザーによる入力とプロンプト テンプレートからプロンプトを生成する

このスクリプトでは、ハードコーディングされた入力および出力メッセージが使用されます。 実際のアプリでは、クライアント アプリケーションから入力を受け取り、モデルへの内部命令を含むシステム メッセージを生成し、すべてのメッセージで LLM を呼び出します。

クライアント アプリケーションから入力を受け取り、プロンプト テンプレートを使用してシステム メッセージを生成するようにスクリプトを変更しましょう。

  1. 応答を出力するスクリプトの最後の行を削除します。

  2. 次に、メッセージとコンテキストを受け取り、プロンプト テンプレートを使用してシステム メッセージを生成し、モデルを呼び出す get_chat_response 関数を定義します。 既存の chat.py ファイルに次のコードを追加します。

    from azure.ai.inference.prompts import PromptTemplate
    
    
    def get_chat_response(messages, context):
        # create a prompt template from an inline string (using mustache syntax)
        prompt_template = PromptTemplate.from_string(
            prompt_template="""
            system:
            You are an AI assistant that speaks like a techno punk rocker from 2350. Be cool but not too cool. Ya dig? Refer to the user by their first name, try to work their last name into a pun.
    
            The user's first name is {{first_name}} and their last name is {{last_name}}.
            """
        )
    
        # generate system message from the template, passing in the context as variables
        system_message = prompt_template.create_messages(data=context)
    
        # add the prompt messages to the user messages
        return chat.complete(
            model="gpt-4o-mini",
            messages=system_message + messages,
            temperature=1,
            frequency_penalty=0.5,
            presence_penalty=0.5,
        )
    

    Note

    プロンプト テンプレートでは mustache 形式が使用されます。

    get_chat_response 関数は、FastAPI または Flask アプリへのルートとして簡単に追加でき、フロントエンド Web アプリケーションからこの関数を呼び出すことができます。

  3. 次に、フロントエンド アプリケーションからこの関数への情報の受け渡しをシミュレートします。 chat.py ファイルの末尾に次のコードを追加します。 メッセージに自分の名前を入れたりして、自由に遊んでみてください。

    if __name__ == "__main__":
        response = get_chat_response(
            messages=[{"role": "user", "content": "what city has the best food in the world?"}],
            context={"first_name": "Jessie", "last_name": "Irwin"},
        )
        print(response.choices[0].message.content)
    

修正したスクリプトを実行して、この新しい入力を使用してモデルからの応答を確認します。

python chat.py

リソースをクリーンアップする

作成したリソースが不要になった場合は、プロジェクトに関連付けられているリソース グループを削除します。

Azure AI Foundry ポータルで、右上隅にあるプロジェクト名を選択します。 次に、リソース グループのリンクを選択して、Azure portal で開きます。 リソース グループを選択し、[削除] を選択 します。 リソース グループを削除することを確認します。

Next step

このクイック スタートでは、 Azure AI Foundry を使用して次の操作を行います。

  • プロジェクトを作成する
  • モデルをデプロイする
  • チャット補完を実行する
  • エージェントを作成して実行する
  • エージェントにファイルをアップロードする

Azure AI Foundry SDK は、Python、Java、JavaScript、C# などの複数の言語で利用できます。 このクイック スタートでは、これらの各言語の手順について説明します。

Tip

この記事の残りの部分では、 Foundry プロジェクトを作成して使用する方法について説明します。 代わりに ハブ ベースのプロジェクト を使用する場合は、この記事の上部にあるハブ ベースのプロジェクトを選択します。 必要なプロジェクトの種類

Prerequisites

  • Azure サブスクリプション。 Azure サブスクリプションをお持ちでない場合は、開始する前に無料アカウントを作成してください。
  • プロジェクトを使用するために必要な適切なアクセス制御を受け取るために、サブスクリプションの 所有者 である必要があります。

Important

この記事で "(プレビュー)" と付記されている項目は、現在、パブリック プレビュー段階です。 このプレビューはサービス レベル アグリーメントなしで提供されており、運用環境ではお勧めしません。 特定の機能はサポート対象ではなく、機能が制限されることがあります。 詳細については、「 Microsoft Azure プレビューの追加使用条件」を参照してください。

プロジェクトとモデルから始める

  1. Azure AI Foundry ポータルにサインインします。

  2. ポータルでは、Microsoft、OpenAI、DeepSeek、Hugging Face、Meta などの最先端モデルの豊富なカタログを探索できます。 このチュートリアルでは、 gpt-4o モデルを検索して選択します。

    Azure AI Foundry ポータルでエージェントの構築を開始する方法を示すスクリーンショット。

  3. モデルの詳細ページで、[ このモデルを使用する] を選択します。

  4. プロジェクトに使用する名前を入力し、[ 作成] を選択します。

  5. デプロイ情報を確認し、[ デプロイ] を選択します。

  6. リソースが作成されると、チャットプレイグラウンドに入ります。

環境を設定する

Azure AI Foundry ポータルを使用するためにインストールする必要はありません。

チャット補完を実行する

チャットの完了は、AI アプリケーションの基本的な構成要素です。 チャットの完了を使用すると、メッセージの一覧を送信し、モデルから応答を取得できます。

  1. チャットプレイグラウンドで、プロンプトに入力し、[ 送信 ] ボタンを選択します。
  2. モデルは、[応答] ウィンドウで 応答 を返します。

エージェントとのチャット

エージェントには、ツールを使用して強力な機能があります。 エージェントとチャットすることから始めます。

エージェントを試す準備ができたら、既定のエージェントが自動的に作成されます。 このエージェントとチャットするには:

  1. 左側のウィンドウで、[ プレイグラウンド] を選択します。
  2. [エージェント] プレイグラウンド カードで、[Let's go] を選択します。
  3. 「あなたは便利なライティング アシスタントです」などの手順を追加します。
  4. 「花に関する詩を書いてください」など、エージェントとチャットを始めます。

エージェントにファイルを追加する

次に、知識の取得を可能にするファイル検索ツールを追加しましょう。

  1. エージェントの [セットアップ] ウィンドウで、必要に応じて下にスクロールして ナレッジを見つけます。
  2. Select Add.
  3. [ ファイル] を選択して 、product_info_1.md ファイルをアップロードします。
  4. [ファイルの追加] で [ローカル ファイルの選択] を選択します。
  5. [ アップロードして保存] を選択します
  6. "You are a helpful assistant and can search information from uploaded files" (あなたは役に立つアシスタントであり、アップロードされたファイルから情報を検索できます) などのエージェントの指示を変更します。
  7. 何か質問をしてください。たとえば、「こんにちは、Contosoの製品について何を知っていますか?」
  8. さらにファイルを追加するには、AgentVectorStore で ... を選択し、[ 管理] を選択します。

リソースをクリーンアップする

作成したリソースが不要になった場合は、プロジェクトに関連付けられているリソース グループを削除します。

Azure AI Foundry ポータルで、右上隅にあるプロジェクト名を選択します。 次に、リソース グループのリンクを選択して、Azure portal で開きます。 リソース グループを選択し、[削除] を選択 します。 リソース グループを削除することを確認します。

Next step