Примечание
Для доступа к этой странице требуется авторизация. Вы можете попробовать войти или изменить каталоги.
Для доступа к этой странице требуется авторизация. Вы можете попробовать изменить каталоги.
Узнайте о возможности создания ИИ с помощью JavaScript. Узнайте, как легко интегрировать ИИ в веб-приложения, мобильные приложения или классические приложения.
JavaScript с искусственным интеллектом?
Хотя это правда, что Python отлично подходит для создания и обучения моделей ИИ, создание приложений с этими моделями отличается. Большинство моделей искусственного интеллекта работают через веб-API, поэтому любой язык, который может выполнять http-вызовы, может использовать ИИ. JavaScript является кроссплатформенным и легко подключает браузеры и серверы, что делает его надежным выбором для приложений ИИ.
Веселый и интерактивный курс
Присоединяйтесь к нам для иммерсивного обучения, включая видео, проекты кода и полную реализацию для использования и изучения создания искусственного интеллекта.
- Курс
- Серия видео
Этот курс является отличным способом для студентов и новых разработчиков, чтобы узнать об ИИ в веселом, интерактивном режиме. Для разработчиков, стремящихся развивать свою карьеру, углубите свои знания в области искусственного интеллекта.
В этом курсе:
- Учите ИИ, оживляя исторические личности с помощью генеративного ИИ.
- Применение функций доступности с помощью встроенных программных интерфейсов браузера
- Использование создания текста и изображений для интеграции искусственного интеллекта в интерфейс приложения
- Изучение архитектурных шаблонов для приложений ИИ
Используйте приложение-компаньон для общения с историческими персонажами
Что нужно знать о LLM?
Крупные языковые модели (LLM) — это глубокие нейронные сети, обучаемые на большом объеме данных для понимания и создания текста. Обучение начинается с больших, разнообразных наборов данных для создания базовой модели, а затем использует специальные данные для точной настройки для улучшения результатов. LLM работают как интеллектуальные средства автозаполнения в редакторах кода или приложениях чата. Модели имеют ограничения, такие как контекстные окна (обычно несколько тысяч маркеров, хотя более новые модели поддерживают больше) и могут отображать предвзятые данные обучения. Именно поэтому ответственный ИИ имеет значение — сосредоточение на справедливости, надежности, конфиденциальности и подотчетности, как рекомендует Microsoft.
Дополнительные сведения см. в сеансе LLM курса:
Основные техники инженерии подсказок
Инженерия проектирования запросов означает создание запросов для получения лучших результатов работы искусственного интеллекта. Для руководства моделью можно использовать обучение без использования примеров (zero-shot learning) или обучение с использованием небольшого количества примеров (few-shot learning). Добавление подсказок, таких как пошаговые инструкции, четкий контекст и форматы вывода, помогают модели дать лучшие ответы. Вы также можете настроить тон и персонализацию ответов. Эти основы готовят вас для продвинутых методов, таких как RAG.
Дополнительные сведения см. в сессии инженерии запросов:
Повышение точности ИИ и надежности с помощью RAG
Используйте получение дополненного поколения (RAG), чтобы сделать ИИ более точным и надежным. RAG объединяет извлекатель, который находит актуальные документы, с генератором, использующим эти документы для ответа на вопросы. Этот подход дает четкие фактические ответы на основе надежных источников, что упрощает проверку и эффективность результатов. Например, служба поддержки недвижимости Contoso использует RAG для предоставления подробных ответов, поддерживаемых корпоративными документами.
Узнайте больше на сеансе RAG курса:
Ускорение разработки ИИ с помощью LangChain.js
Ускорение проектов ИИ с помощью LangChain.js. Эта библиотека JavaScript упрощает работу с большими языковыми моделями. Используйте LangChain.js для создания шаблонов запросов, подключения моделей и векторных баз данных и создания сложных рабочих процессов. Быстро создавайте прототипы приложений, например API, который извлекает данные и отвечает на вопросы из расшифровок YouTube. Когда вы будете готовы к рабочей среде, замените локальные модели и векторные хранилища для служб Azure без изменения кода.
Дополнительные сведения см. в сессии курсаLangChain.js:
Запуск моделей ИИ на локальном компьютере с помощью Ollama
Скачайте и используйте локальные модели искусственного интеллекта с помощью Ollama — средства с открытым кодом на основе llama.cpp— для эффективного запуска небольших языковых моделей, таких как Phi-3. Локальные модели устраняют зависимость от облачной инфраструктуры, обеспечивают быструю разработку с автономными возможностями и предлагают экономичное тестирование с помощью быстрого внутреннего цикла разработки. Phi-3, отмеченный своей высокой производительностью и ответственной безопасностью ИИ, может работать даже на устройствах с умеренными спецификациями и доступен через API, совместимый с OpenAI, что упрощает интеграцию с рабочим процессом разработки.
Дополнительные сведения см. в сессии курса Ollama.
Начало работы с ИИ бесплатно с помощью Phi-3
Попробуйте использовать модели искусственного интеллекта с помощью инструмента Ollama и модели Phi-3 в браузере с помощью онлайн-площадки. Создайте пространство GitHub Codespace для использования VS Code в браузере, выполните команды, такие как "Ollama run phi3", чтобы общаться с моделью, и используйте записную книжку Jupyter для тестирования разработки подсказок, обучения на нескольких примерах и RAG. Вы можете создавать и изучать проекты ИИ в Интернете— не требуется быстрой настройки GPU или локальной установки.
Дополнительные сведения см. в занятии курса Phi-3:
Общие сведения об Azure AI Foundry
Используйте Azure AI Foundry, чтобы начать создание созданных приложений ИИ с помощью JavaScript. Упорядочение ресурсов с помощью центров и проектов, просмотр тысяч моделей и развертывание модели для тестирования на детской площадке. Выберите управляемые вычислительные или бессерверные API, выполните те же действия, чтобы выбрать, развернуть и использовать модель в рабочем процессе.
Дополнительные сведения см. в сеансе Azure AI Foundry:
Разработка генеративных приложений ИИ с помощью Azure Cosmos DB
Дополнительные сведения см. в сессии Azure Cosmos DB курса .
Средства Azure & службы для размещения и хранения приложений ИИ
Ознакомьтесь с ключевыми инструментами и службами Azure для размещения и хранения приложений ИИ. Создание различных типов приложений ИИ, таких как приложения чата, RAG и автономные агенты. Используйте интерфейс командной строки разработчика Azure (AZD) для простого развертывания. Сравните бессерверные и контейнерные параметры и узнайте, как обеспечить безопасность, масштабируемость и мониторинг API для реального использования.
Дополнительные сведения см. в сеансе инструментов и служб Azure курса .
Потоковая трансляция результатов генеративного ИИ с помощью протокола чата ИИ
Потоковая передача данных, сгенерированных искусственным интеллектом, с помощью протокола чата для ИИ. Это средство упрощает взаимодействие в режиме реального времени между службой ИИ и клиентскими приложениями. Попробуйте два метода потоковой передачи: выполните вывод в браузере или используйте сервер вывода ИИ. Остерегайтесь утечки ключа API, безопасности данных и правильного выбора протокола. Простой клиент протокола AI Chat позволяет добавлять безопасную и эффективную потоковую передачу в приложение с помощью методов getCompletion и getStreamedCompletion, как показано в нашем бессерверном RAG с LangChain.js примере.
Дополнительные сведения см. в сеансе потоковой передачи курса: