次の方法で共有


JavaScript 用の生成 AI の概要

JavaScript を使用して、ジェネレーティブ AI の力を発見します。 WEB、モバイル、またはデスクトップ アプリケーションに AI をシームレスに統合する方法について説明します。

AI を使用した JavaScript

Python が AI モデルの作成とトレーニングに適していることは事実ですが、これらのモデルでアプリを構築することは異なります。 ほとんどの AI モデルは Web API を介して動作するため、HTTP 呼び出しを行うことができるすべての言語で AI を使用できます。 JavaScript はクロスプラットフォームであり、ブラウザーとサーバーを簡単に接続できるため、AI アプリに適しています。

楽しくインタラクティブなコース

ビデオ、コード プロジェクト、生成 AI を使用して学習するための完全な実装など、イマーシブな学習エクスペリエンスをご利用ください。

このコースは、学生や新しい開発者が楽しくインタラクティブな方法で AI について学ぶのに最適な方法です。 キャリア開発者の場合は、AI へのアップスケールについてさらに詳しく説明します。

このコースでは、次の手順を実行します。

  • ジェネレーティブ AI を使用して歴史上の人物を生き生きとさせる間に AI を学習する
  • 組み込みのブラウザー API を使用してアクセシビリティを適用する
  • テキストと画像の生成を使用して AI をアプリ エクスペリエンスに統合する
  • AI アプリケーションのアーキテクチャ パターンについて学習する

コンパニオン アプリで歴史的なキャラクターと話すために使用される、AI によって生成されたレオナルド・ダ・ヴィンチの画像。

歴史上の人物と話すためにコンパニオンアプリケーションを使用してください

LLM について知っておくべきこと

大規模言語モデル (LLM) は、テキストを理解して作成するために、多くのデータでトレーニングされたディープ ニューラル ネットワークです。 トレーニングは、大規模で多様なデータセットから始まり、基本モデルを構築し、特別なデータを使用して、より良い結果を得るために微調整します。 LLM は、コード エディターやチャット アプリのスマート オートコンプリート ツールと同様に機能します。 モデルにはコンテキスト ウィンドウのような制限があり (通常は数千のトークンですが、新しいモデルはより多くをサポートします)、トレーニング データからの偏りを示すことができます。 そのため、責任ある AI が重要であり、Microsoft が推奨するように、公平性、信頼性、プライバシー、アカウンタビリティに重点を置いています。

コースの LLM セッションで詳細を確認します。

基本的なプロンプト エンジニアリング手法

プロンプト エンジニアリングとは、より優れた AI 結果を得るためのプロンプトを設計することを意味します。 ゼロショット学習 (例なし) または少数のショット学習 (例あり) を使用してモデルをガイドできます。 ステップ バイ ステップ命令、明確なコンテキスト、出力形式などのキューを追加すると、モデルがより良い回答を得るのに役立ちます。 トーンを調整したり、応答をカスタマイズしたりすることもできます。 これらの基本は、RAG などの高度な手法に備えるための準備になります。

詳細については、 コースのプロンプト エンジニアリング セッションを参照してください。

RAG を使用して AI の精度と信頼性を向上させる

検索拡張生成 (RAG) を使用して、AI をより正確かつ信頼性の高いものにします。 RAG は、up-to-date ドキュメントを検索するレトリバーと、それらのドキュメントを使用して質問に回答するジェネレーターを結合します。 このアプローチでは、信頼できるソースに基づいて明確で事実に基づく回答が得られ、結果を簡単に確認でき、コスト効率が高くなります。 たとえば、Contoso の不動産サポートでは、RAG を使用して、会社のドキュメントに基づいて詳細な回答を提供します。

コースの RAG セッションで詳細を確認します。

LangChain.js を使用して AI 開発を高速化する

LangChain.jsを使用して AI プロジェクトを高速化します。 この JavaScript ライブラリを使用すると、大規模な言語モデルを簡単に操作できます。 LangChain.js を使用して、プロンプト テンプレートの作成、モデルとベクター データベースの接続、複雑なワークフローの作成を行います。 YouTube トランスクリプトから質問を引き出して回答する API のように、アプリをすばやくプロトタイプ作成します。 運用環境の準備ができたら、コードを変更せずに、Azure サービスのローカル モデルとベクター ストアをスワップします。

コースの LangChain.js セッションで詳細を確認します。

Ollama を使用してローカル コンピューターで AI モデルを実行する

Llama.cppに基づくオープンソース ツールである Ollama を使用してローカル AI モデルをダウンロードして使用し、Phi-3 のような小さな言語モデルを効率的に実行します。 ローカル モデルは、クラウド インフラストラクチャへの依存を排除し、オフライン機能を使用した迅速な開発を可能にし、迅速な内部開発ループを通じてコスト効率の高いテストを提供します。 Phi-3は、高性能で責任あるAI安全性が特徴で、中程度の仕様のデバイスでも実行でき、OpenAIと互換性のあるAPIを介してアクセスできるため、開発ワークフローと簡単に統合できます。

詳細については、 コースの Ollama セッションを参照してください。

Phi-3 を使用して AI を無料で開始する

オンラインプレイグラウンドを使用して、ブラウザーで Ollama ツールと Phi-3 モデルを使用して AI モデルを試してみてください。 ブラウザーで VS Code を使用する GitHub Codespace を作成し、"Ollama run phi3" などのコマンドを実行してモデルとチャットし、Jupyter Notebook を使用してプロンプト エンジニアリング、少数の学習、RAG をテストします。 オンラインで AI プロジェクトを構築して探索できます。高速 GPU やローカルセットアップは必要ありません。

コースの Phi-3 セッションで詳細を確認します。

Azure AI Foundry の概要

Azure AI Foundry を使用して、JavaScript を使用して生成型 AI アプリの構築を開始します。 ハブとプロジェクトを使用してリソースを整理し、何千ものモデルを参照し、遊び場でテストするモデルをデプロイします。 マネージド コンピューティング API とサーバーレス API のどちらを選択した場合でも、同じ手順に従って、ワークフローでモデルを選択、デプロイ、および使用します。

詳細については、 このコースの Azure AI Foundry セッションを参照してください。

Azure Cosmos DB を使用したジェネレーティブ AI アプリの構築

詳細については、 このコースの Azure Cosmos DB セッションを参照してください。

AI アプリをホストおよび格納するための Azure ツール & サービス

AI アプリをホストおよび格納するための主要な Azure ツールとサービスについて説明します。 チャット アプリ、RAG、自律エージェントなど、さまざまな種類の AI アプリを構築します。 Azure Developer CLI (AZD) を使用して簡単にデプロイします。 サーバーレスとコンテナーベースのオプションを比較し、実際の使用のために API をセキュリティで保護、スケーラブル、監視する方法について説明します。

詳細については、 このコースの Azure ツールとサービス セッションを参照してください。

AIチャットプロトコルを使用して生成AIをストリーミング出力

AI チャット プロトコルを使用して生成 AI 出力をストリーミングします。 このツールを使用すると、AI サービスとクライアント アプリ間のリアルタイム通信が簡単になります。 2 つのストリーミング方法を試してください。ブラウザーで推論を実行するか、AI 推論サーバーを使用します。 API キーの公開、データの安全性、適切なプロトコルの選択に注意してください。 AI チャット プロトコルのシンプルなクライアントを使用すると、サーバーレス RAG と LangChain.js の例に示すように、getCompletion メソッドと getStreamedCompletion メソッドを使用して、セキュリティで保護された効率的なストリーミングをアプリに追加できます。

詳細については、 コースのストリーミング セッションを参照してください。