共用方式為


快速入門:開始使用 Azure AI Foundry

在本快速入門中,我們會逐步引導您使用 Azure AI Foundry SDK 設定本機開發環境。 我們會撰寫提示、在您的應用程式程式碼中執行它、追蹤要進行的 LLM 呼叫,以及在 LLM 的輸出上執行基本評估。

Tip

本文的其餘部分說明如何使用 中樞型專案。 如果您想要改用 Foundry 專案,請選取本文頂端的 Foundry 專案。 我需要哪種類型的專案?

Prerequisites

  • Azure 訂用帳戶。 如尚未擁有 Azure 訂用帳戶,請在開始之前先建立免費帳戶。
  • 中樞型專案。 如果您不熟悉 Azure AI Foundry 且沒有中樞型專案,請選取本文頂端的 Foundry 專案 ,以改用 Foundry 專案。

設定開發環境

  1. 設定開發環境

  2. 安裝這些套件。

    pip install azure-ai-inference azure-identity azure-ai-projects==1.0.0b10
    

    Note

    不同的項目類型需要不同版本的 azure-ai-projects 套件。 若要避免衝突,請建立個別的 Python 環境:針對中樞型專案使用版本 1.0.0b10 ,以及 Foundry 專案的最新版本。

部署模型

Tip

因為您可以在 Azure AI Foundry 入口網站中 自訂左窗格,因此您看到的項目可能會與這些步驟中顯示的不同。 如果您沒有看到您要尋找的內容,請選取左窗格底部的 ... 更多

  1. 登入 Azure AI Foundry

  2. 選取中樞型專案。 如果您沒有中樞型專案,請選取本文頂端的 Foundry 專案 以改用 Foundry 專案。

  3. 從左窗格中選取 [模型目錄 ]。

  4. 從模型清單中選取 gpt-4o-mini 模型。 您可以使用搜尋列來尋找它。

  5. 在 [模型詳細數據] 頁面上,選取 [ 部署]。

    模型詳細數據頁面的螢幕快照,其中包含部署模型的按鈕。

  6. 保留預設 的部署名稱。 請選擇 部署

  7. 部署模型之後,請選取 [在遊樂場 中開啟] 以測試您的模型。

組建您的聊天應用程式

建立名為 chat.py 檔案。 下列程式代碼複製並貼到其中。

from azure.ai.projects import AIProjectClient
from azure.identity import DefaultAzureCredential

project_connection_string = "<your-connection-string-goes-here>"

project = AIProjectClient.from_connection_string(
    conn_str=project_connection_string, credential=DefaultAzureCredential()
)

chat = project.inference.get_chat_completions_client()
response = chat.complete(
    model="gpt-4o-mini",
    messages=[
        {
            "role": "system",
            "content": "You are an AI assistant that speaks like a techno punk rocker from 2350. Be cool but not too cool. Ya dig?",
        },
        {"role": "user", "content": "Hey, can you help me with my taxes? I'm a freelancer."},
    ],
)

print(response.choices[0].message.content)

插入您的連接字串

需要您的專案連接字串才能從您的程式碼中呼叫 Azure AI Foundry 模型中的 Azure OpenAI。

於您在 Azure AI Foundry 遊樂場快速入門中建立的 Azure AI Foundry 專案中尋找您的連接字串。 開啟專案,然後在 [概觀] 頁面上尋找連接字串。

顯示專案概觀頁面和連接字串位置的螢幕擷取畫面。

複製連接字串,然後在 <your-connection-string-goes-here> 檔案中取代

執行您的聊天指令碼

執行指令碼以查看來自模型的回應。

python chat.py

從使用者輸入和提示範本來產生提示

指令碼會使用硬式編碼的輸入和輸出訊息。 在真實的應用程式中,您將從用戶端應用程式取得輸入,產生具有模型內部指令的系統訊息,然後使用所有訊息呼叫 LLM。

讓我們變更指令碼以從用戶端應用程式取得輸入並使用提示範本來產生系統訊息。

  1. 移除列印回應的指令碼的最後一行。

  2. 現在定義 get_chat_response 函數,該函數接受訊息和內容,且使用提示範本來產生系統訊息,並且呼叫模型。 將此程式代碼新增至您現有的 chat.py 檔案:

    from azure.ai.inference.prompts import PromptTemplate
    
    
    def get_chat_response(messages, context):
        # create a prompt template from an inline string (using mustache syntax)
        prompt_template = PromptTemplate.from_string(
            prompt_template="""
            system:
            You are an AI assistant that speaks like a techno punk rocker from 2350. Be cool but not too cool. Ya dig? Refer to the user by their first name, try to work their last name into a pun.
    
            The user's first name is {{first_name}} and their last name is {{last_name}}.
            """
        )
    
        # generate system message from the template, passing in the context as variables
        system_message = prompt_template.create_messages(data=context)
    
        # add the prompt messages to the user messages
        return chat.complete(
            model="gpt-4o-mini",
            messages=system_message + messages,
            temperature=1,
            frequency_penalty=0.5,
            presence_penalty=0.5,
        )
    

    Note

    提示範本使用鬍子格式。

    可以輕鬆地將 get_chat_response 函數新增為 FastAPI 或 Flask 應用程式的路由,以便從前端 Web 應用程式呼叫此函數。

  3. 現在模擬從前端應用程式傳遞訊息到此函數。 將列下程式碼加入 chat.py chat.py 檔案的結尾。 請隨意修改訊息並新增您自己的名稱。

    if __name__ == "__main__":
        response = get_chat_response(
            messages=[{"role": "user", "content": "what city has the best food in the world?"}],
            context={"first_name": "Jessie", "last_name": "Irwin"},
        )
        print(response.choices[0].message.content)
    

執行修訂的指令碼來查看模型對此新輸入的回應。

python chat.py

清理資源

如果您不再需要您所建立的任何資源,請刪除與您的專案相關聯的資源群組。

在 Azure AI Foundry 入口網站中,選取右上角的項目名稱。 然後選取資源群組的連結,以在 Azure 入口網站中開啟它。 選取資源群組,然後選取 [ 刪除]。 確認您想要刪除資源群組。

後續步驟

在本快速入門中,您會使用 Azure AI Foundry 來:

  • 建立專案
  • 部署模型
  • 執行聊天完成
  • 建立和執行代理程式
  • 將檔案上傳至代理程式

Azure AI Foundry SDK 提供多種語言,包括 Python、Java、JavaScript 和 C#。 此快速入門提供每個語言的指示。

Tip

本文的其餘部分說明如何建立和使用 Foundry 專案。 如果您想要改用中樞 型專案 ,請選取本文頂端的中樞型專案。 我需要哪種類型的專案?

Prerequisites

  • Azure 訂用帳戶。 如尚未擁有 Azure 訂用帳戶,請在開始之前先建立免費帳戶。
  • 您必須是訂用帳戶的 擁有者 ,才能接收使用專案所需的適當訪問控制。

Important

本文中標示為 (預覽) 的項目目前處於公開預覽狀態。 此預覽版本沒有服務等級協定,不建議將其用於生產工作負載。 可能不支援特定功能,或可能已經限制功能。 如需詳細資訊,請參閱 Microsoft Azure 預覽版增補使用條款

從專案和模型開始

  1. 登入 Azure AI Foundry 入口網站

  2. 在入口網站中,您可以從 Microsoft、OpenAI、DeepSeek、Hugging Face、Meta 等等探索豐富的尖端模型目錄。 在本教學課程中,搜尋並選取 gpt-4o 模型。

    此螢幕快照顯示如何在 Azure AI Foundry 入口網站中開始建置代理程式。

  3. 在 [模型詳細數據] 頁面上,選取 [使用此模型]。

  4. 填入要用於項目的名稱,然後選取 [ 建立]。

  5. 檢閱部署資訊,然後選取 [ 部署]。

  6. 在您建立資源之後,您就會在聊天遊樂場中。

設定您的環境

不需要安裝 Azure AI Foundry 入口網站。

執行聊天完成

聊天完成是 AI 應用程式的基本建置組塊。 使用聊天完成功能,您可以傳送一系列訊息,並從模型取得回應。

  1. 在聊天遊樂場中,填入提示,然後選取 [ 傳送 ] 按鈕。
  2. 模型會在 [ 回應 ] 窗格中傳回回應。

與代理程式聊天

代理程式透過使用工具具有強大的功能。 首先,與客服人員聊天。

當您準備好嘗試代理程式時,會為您建立預設代理程式。 若要與此代理程式聊天:

  1. 在左窗格中,選取 [ 遊樂場]。
  2. [代理程式遊樂場] 卡片中,選取 [雀躍期待]
  3. 新增指示,例如「您是實用的寫作助理」。
  4. 例如,開始和你的經紀人聊天,例如,“給我寫一首關於鮮花的詩”。

將檔案新增至代理程式

現在讓我們新增檔案搜尋工具,讓我們能夠進行知識擷取。

  1. 在代理程式的 [ 設定 ] 窗格中,視需要向下捲動以尋找 知識
  2. 選取 ,然後新增
  3. 選取 [檔案] 以上傳 product_info_1.md 檔案。
  4. 選取 [選取本機檔案] 底下的 [新增檔案]
  5. 選取 [上傳並儲存]。
  6. 變更您的代理程式指示,例如「您是一個有用的小幫手,而且可以從上傳的檔案搜尋資訊」。
  7. 您可以問個問題,例如:「您好,您知道哪些 Contoso 產品?」
  8. 若要新增更多檔案,請在 AgentVectorStore 上選取 ... ,然後選取 [ 管理]。

清理資源

如果您不再需要您所建立的任何資源,請刪除與您的專案相關聯的資源群組。

在 Azure AI Foundry 入口網站中,選取右上角的項目名稱。 然後選取資源群組的連結,以在 Azure 入口網站中開啟它。 選取資源群組,然後選取 [ 刪除]。 確認您想要刪除資源群組。

後續步驟