core Paquet
Contient les fonctionnalités principales des pipelines Azure Machine Learning, qui sont des flux de travail Machine Learning configurables.
Les pipelines Azure Machine Learning vous permettent de créer des flux de travail Machine Learning réutilisables qui peuvent être utilisés comme modèle pour vos scénarios de Machine Learning. Ce package contient les fonctionnalités principales pour l’utilisation des pipelines Azure ML et est généralement utilisée avec les classes du steps package.
Un pipeline Machine Learning est représenté par une collection d’objets PipelineStep pouvant être séquencés et parallélisés, ou créés avec des dépendances explicites entre les étapes. Les étapes de pipeline sont utilisées pour définir un Pipeline objet qui représente le flux de travail à exécuter. Vous pouvez créer et utiliser des pipelines dans un notebook Jupyter ou tout autre IDE avec le Kit de développement logiciel (SDK) Azure ML installé.
Les pipelines Azure ML vous permettent de vous concentrer sur le Machine Learning plutôt que sur l’infrastructure. Pour commencer à créer un pipeline, consultez https://aka.ms/pl-first-pipeline.
Pour plus d’informations sur les avantages du pipeline Machine Learning et sur la façon dont il est lié à d’autres pipelines proposés par Azure, consultez Qu’est-ce que les pipelines ML dans le service Azure Machine Learning ?
Modules
builder |
Définit des classes pour la création d’un pipeline Azure Machine Learning. Un graphique de pipeline se compose d’étapes de pipeline (PipelineStep), de données de pipeline facultatives (PipelineData) produites ou consommées dans chaque étape et d’une séquence d’exécution d’étape facultative (StepSequence). |
graph |
Définit des classes pour construire des graphiques de pipeline Azure Machine Learning. Les graphiques de pipeline Azure ML sont créés pour Pipeline les objets, lorsque vous utilisez PipelineStep (et des classes dérivées) PipelineDataet PipelineData des objets. Dans les cas d’usage classiques, vous n’aurez pas besoin d’utiliser directement les classes de ce module. Un graphique d’exécution de pipeline se compose de nœuds de module qui représentent des unités de base telles qu’une source de données ou une étape. Les nœuds peuvent avoir des ports d’entrée et des ports de sortie et des paramètres associés. Les arêtes définissent des relations entre deux ports de nœud dans un graphique. |
module |
Contient des classes pour créer et gérer des unités de calcul réutilisables d’un pipeline Azure Machine Learning. Les modules vous permettent de créer des unités de calcul dans un Pipeline, qui peuvent avoir des entrées, des sorties et s’appuyer sur des paramètres et une configuration d’environnement à utiliser. Un module peut être versionné et être utilisé dans différents pipelines Azure Machine Learning, contrairement aux PipelineStep classes dérivées qui sont utilisées dans un pipeline. Les modules sont conçus pour être réutilisés dans plusieurs pipelines et peuvent évoluer pour adapter une logique de calcul spécifique pour différents cas d’usage. Une étape d’un pipeline peut être utilisée dans des itérations rapides pour améliorer un algorithme et une fois l’objectif atteint, l’algorithme est généralement publié en tant que module pour permettre la réutilisation. |
module_step_base |
Contient des fonctionnalités permettant d’ajouter une étape à un pipeline à l’aide d’une version d’un Module. |
pipeline |
Définit la classe pour créer des flux de travail Azure Machine Learning réutilisables. |
pipeline_draft |
Définit des classes pour la gestion des pipelines mutables. |
pipeline_endpoint |
Définit des classes pour la gestion des pipelines, notamment le contrôle de version et les points de terminaison. |
pipeline_output_dataset |
Contient des fonctionnalités permettant de promouvoir une sortie intermédiaire vers un jeu de données Azure Machine Learning. Les données intermédiaires (sortie) dans un pipeline par défaut ne deviendront pas un jeu de données Azure Machine Learning. Pour promouvoir des données intermédiaires vers un jeu de données Azure Machine Learning, appelez la as_dataset méthode sur la classe PipelineData pour renvoyer un PipelineOutputFileDataset objet. À partir d’un objet PipelineOutputFileDataset, vous pouvez ensuite créer un PipelineOutputTabularDataset objet. |
run |
Définit des classes pour les pipelines soumis, y compris les classes permettant de vérifier l’état et de récupérer les détails de l’exécution. |
schedule |
Définit des classes pour la planification des soumissions d’Azure Machine Learning Pipelines. |
Classes
InputPortBinding |
Définit une liaison d’une source à une entrée d’une étape de pipeline. Un InputPortBinding peut être utilisé comme entrée à une étape. La source peut être un PipelineData, , PortDataReferenceDataReference, PipelineDatasetou OutputPortBinding. InputPortBinding est utile pour spécifier le nom de l’entrée d’étape, s’il doit être différent du nom de l’objet de liaison (par exemple, pour éviter les noms d’entrée/sortie dupliqués ou parce que le script d’étape a besoin d’une entrée pour avoir un certain nom). Il peut également être utilisé pour spécifier la bind_mode pour PythonScriptStep les entrées. Initialisez InputPortBinding. |
Module |
Représente une unité de calcul utilisée dans un pipeline Azure Machine Learning. Un module est une collection de fichiers qui s’exécutent sur une cible de calcul et une description d’une interface. La collection de fichiers peut être un script, des fichiers binaires ou tout autre fichier requis pour s’exécuter sur la cible de calcul. L’interface de module décrit les entrées, les sorties et les définitions de paramètres. Elle ne les lie pas à des valeurs ou données spécifiques. Un module a un instantané associé à celui-ci, qui capture la collection de fichiers définis pour le module. Initialiser le module. |
ModuleVersion |
Représente l’unité de calcul réelle dans un Module. Vous ne devez pas utiliser cette classe directement. Utilisez plutôt l’une des méthodes de publication de la Module classe. Initialisez ModuleVersion. |
ModuleVersionDescriptor |
Définit la version et l’ID d’un ModuleVersion. Initialiser ModuleVersionDescriptor. |
OutputPortBinding |
Définit une sortie nommée d’une étape de pipeline. OutputPortBinding peut être utilisé pour spécifier le type de données qui sera généré par une étape et la façon dont les données seront produites. Il peut être utilisé pour InputPortBinding spécifier que la sortie de l’étape est une entrée requise d’une autre étape. Initialisez OutputPortBinding. |
Pipeline |
Représente une collection d’étapes qui peuvent être exécutées en tant que flux de travail Azure Machine Learning réutilisable. Utilisez un pipeline pour créer et gérer des flux de travail qui regroupent différentes phases de Machine Learning. Chaque phase de Machine Learning, telle que la préparation des données et l’apprentissage du modèle, peut se composer d’une ou plusieurs étapes dans un pipeline. Pour obtenir une vue d’ensemble des raisons et des moments d’utilisation de Pipelines, consultez https://aka.ms/pl-concept. Pour obtenir une vue d’ensemble de la construction d’un pipeline, consultez https://aka.ms/pl-first-pipeline. Initialiser le pipeline. |
PipelineData |
Représente des données intermédiaires dans un pipeline Azure Machine Learning. Les données utilisées dans le pipeline peuvent être produites par une étape et consommées dans une autre étape en fournissant un objet PipelineData en tant que sortie d’une étape et une entrée d’une ou plusieurs étapes suivantes. Notez que si vous utilisez les données du pipeline, assurez-vous que le répertoire utilisé existait. Exemple python pour vous assurer que le répertoire existait, supposons que vous disposiez d’un port de sortie nommé output_folder en une étape de pipeline, vous souhaitez écrire des données dans le chemin relatif de ce dossier.
PipelineData utilise DataReference sous-jacent qui n’est plus l’approche recommandée pour l’accès aux données et la remise, utilisez OutputFileDatasetConfig à la place, vous trouverez un exemple ici : Pipeline à l’aide de OutputFileDatasetConfig. Initialisez PipelineData. |
PipelineDataset |
Agit comme adaptateur pour le jeu de données et le pipeline. Remarque Cette classe est déconseillée. Découvrez comment utiliser le jeu de données avec le pipeline ; consultez https://aka.ms/pipeline-with-dataset. Il s’agit d’une classe interne. Vous ne devez pas créer cette classe directement, mais plutôt appeler les méthodes d’instance as_* sur le jeu de données ou les classes OutputDatasetConfig. Agir en tant qu’adaptateur pour le jeu de données et le pipeline. Il s’agit d’une classe interne. Vous ne devez pas créer cette classe directement, mais plutôt appeler les méthodes d’instance as_* sur le jeu de données ou les classes OutputDatasetConfig. |
PipelineDraft |
Représente un pipeline mutable qui peut être utilisé pour envoyer des exécutions et créer des pipelines publiés. Utilisez PipelineDrafts pour itérer sur les pipelines. PipelineDrafts peut être créé à partir de zéro, un autre PipelineDraft ou des pipelines existants : Pipeline, PublishedPipelineou PipelineRun. Initialiser PipelineDraft. |
PipelineEndpoint |
Représente un Pipeline flux de travail qui peut être déclenché à partir d’une URL de point de terminaison unique. PipelineEndpoints peut être utilisé pour créer de nouvelles versions d’un PublishedPipeline point de terminaison tout en conservant le même point de terminaison. Les pipelineEndpoints sont nommés de manière unique dans un espace de travail. À l’aide de l’attribut de point de terminaison d’un objet PipelineEndpoint, vous pouvez déclencher de nouvelles exécutions de pipeline à partir d’applications externes avec des appels REST. Pour plus d’informations sur l’authentification lors de l’appel de points de terminaison REST, consultez https://aka.ms/pl-restep-auth. Pour plus d’informations sur la création et l’exécution de pipelines Machine Learning, consultez https://aka.ms/pl-first-pipeline. Initialiser PipelineEndpoint. |
PipelineParameter |
Définit un paramètre dans une exécution de pipeline. Utilisez PipelineParameters pour construire des pipelines polyvalents qui peuvent être remis ultérieurement avec des valeurs de paramètre variables. Initialisez les paramètres de pipeline. |
PipelineRun |
Représente une exécution d’un Pipeline. Cette classe peut être utilisée pour gérer, vérifier l’état et récupérer les détails de l’exécution une fois qu’une exécution de pipeline est envoyée. Permet get_steps de récupérer les StepRun objets créés par l’exécution du pipeline. D’autres utilisations incluent la récupération de l’objet Graph associé à l’exécution du pipeline, l’extraction de l’état de l’exécution du pipeline et l’attente de la fin de l’exécution. Initialiser une exécution de pipeline. |
PipelineStep |
Représente une étape d’exécution dans un pipeline Azure Machine Learning. Les pipelines sont construits à partir de plusieurs étapes de pipeline, qui sont des unités de calcul distinctes dans le pipeline. Chaque étape peut s’exécuter indépendamment et utiliser des ressources de calcul isolées. Chaque étape possède généralement ses propres entrées, sorties et paramètres nommés. La classe PipelineStep est la classe de base à partir de laquelle d’autres classes d’étape intégrées conçues pour les scénarios courants héritent, tels que PythonScriptStep, DataTransferStepet HyperDriveStep. Pour obtenir une vue d’ensemble de la relation entre Pipelines et PipelineSteps, consultez Présentation des pipelines ML. Initialiser PipelineStep. |
PortDataReference |
Modèles les données associées à une sortie d’un StepRun terminé. Un objet PortDataReference peut être utilisé pour télécharger les données de sortie qui ont été produites par un StepRun. Il peut également être utilisé comme entrée d’étape dans un pipeline futur. Initialisez PortDataReference. |
PublishedPipeline |
Représente un pipeline à soumettre sans le code Python qui l’a construit. En outre, un PublishedPipeline peut être utilisé pour renvoyer une Pipeline soumission avec différentes PipelineParameter valeurs et entrées. Initialiser PublishedPipeline. :p aram endpoint L’URL du point de terminaison REST pour envoyer des exécutions de pipeline pour ce pipeline. :type point de terminaison : str :p aram total_run_steps : nombre d’étapes dans ce pipeline :type total_run_steps : espace de travail int :p aram : espace de travail de l’espace de travail publié. :type d’espace de travail : azureml.core.Workspace :p aram continue_on_step_failure : continuer l’exécution d’autres étapes dans PipelineRun si une étape échoue, la valeur par défaut est false. |
Schedule |
Définit une planification sur laquelle envoyer un pipeline. Une fois qu’un pipeline est publié, une planification peut être utilisée pour envoyer le pipeline à un intervalle spécifié ou lorsque les modifications apportées à un emplacement de stockage d’objets blob sont détectées. Initialiser la planification. |
ScheduleRecurrence |
Définit la fréquence, l’intervalle et l’heure de début d’un pipeline Schedule. ScheduleRecurrence vous permet également de spécifier le fuseau horaire et les heures ou minutes ou jours de semaine pour la périodicité. Initialisez une périodicité de planification. Il permet également de spécifier le fuseau horaire et les heures ou minutes ou jours de semaine pour la périodicité. |
StepRun |
Exécution d’une étape dans un Pipeline. Cette classe peut être utilisée pour gérer, vérifier l’état et récupérer les détails de l’exécution de l’exécution du pipeline parent une fois que l’exécution du pipeline parent est soumise et que le pipeline a envoyé l’exécution de l’étape. Initialisez un StepRun. |
StepRunOutput |
Représente une sortie créée par un StepRun pipeline. StepRunOutput peut être utilisé pour accéder à l’étape PortDataReference créée. Initialiser StepRunOutput. |
StepSequence |
Représente une liste d’étapes dans un Pipeline et l’ordre dans lequel les exécuter. Utilisez une étape stepSequence lors de l’initialisation d’un pipeline pour créer un workflow qui contient des étapes à exécuter dans un ordre spécifique. Initialisez StepSequence. |
TrainingOutput |
Définit une sortie spécialisée de certains PipelineSteps à utiliser dans un pipeline. TrainingOutput permet à une métrique ou un modèle Machine Learning automatisé d’être mis à disposition en tant que sortie d’étape à consommer par une autre étape dans un pipeline Azure Machine Learning. Peut être utilisé avec AutoMLStep ou HyperDriveStep. Initialisez TrainingOutput. param model_file : fichier de modèle spécifique à inclure dans la sortie. Pour HyperDriveStep uniquement. |
Énumérations
TimeZone |
Énumère les fuseaux horaires valides pour une périodicité Schedule. |