Schedule Classe
Définit une planification sur laquelle envoyer un pipeline.
Une fois qu’un pipeline est publié, une planification peut être utilisée pour envoyer le pipeline à un intervalle spécifié ou lorsque les modifications apportées à un emplacement de stockage d’objets blob sont détectées.
Initialiser la planification.
Constructeur
Schedule(workspace, id, name, description, pipeline_id, status, recurrence, datastore_name, polling_interval, data_path_parameter_name, continue_on_step_failure, path_on_datastore, _schedule_provider=None, pipeline_endpoint_id=None)
Paramètres
Nom | Description |
---|---|
workspace
Obligatoire
|
L’objet d’espace de travail auquel appartient cette planification. |
id
Obligatoire
|
ID de la planification. |
name
Obligatoire
|
Nom de la planification. |
description
Obligatoire
|
Description de la planification. |
pipeline_id
Obligatoire
|
ID du pipeline que la planification envoie. |
status
Obligatoire
|
État de la planification, « Actif » ou « Désactivé ». |
recurrence
Obligatoire
|
Périodicité de planification du pipeline. |
datastore_name
Obligatoire
|
Nom du magasin de données à surveiller pour les objets blob modifiés/ajoutés. Remarque : 1) Les magasins de données de réseau virtuel ne sont pas pris en charge. 2) Le type d’authentification du magasin de données doit être défini sur « Clé de compte ». |
polling_interval
Obligatoire
|
Durée (en minutes) entre l’interrogation des blobs modifiés/ajoutés. |
data_path_parameter_name
Obligatoire
|
Nom du paramètre de pipeline relatif au chemin d’accès des données à définir avec le chemin d’accès des blobs modifiés. |
continue_on_step_failure
Obligatoire
|
Indique s’il faut poursuivre l’exécution des autres étapes du PipelineRun envoyé si une étape échoue. S’il est fourni, cela remplace le paramètre continue_on_step_failure pour le pipeline. |
path_on_datastore
Obligatoire
|
Optionnel. Chemin d’accès sur le magasin de données à surveiller pour les blobs modifiés/ajoutés. Remarque : le path_on_datastore se trouve sous le conteneur du magasin de données. Par conséquent, le chemin d’accès réel que la planification surveillera sera conteneur/path_on_datastore. S’il n’y en a aucun, le conteneur du magasin de données est surveillé. Les ajouts/modifications apportés dans un sous-dossier de la path_on_datastore ne sont pas surveillés. Uniquement pris en charge pour les planifications dataStore. |
_schedule_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaScheduleProvider>
Fournisseur de planification. Valeur par défaut: None
|
workspace
Obligatoire
|
L’objet d’espace de travail auquel appartient cette planification. |
id
Obligatoire
|
ID de la planification. |
name
Obligatoire
|
Nom de la planification. |
description
Obligatoire
|
Description de la planification. |
pipeline_id
Obligatoire
|
ID du pipeline que la planification envoie. |
status
Obligatoire
|
État de la planification, « Actif » ou « Désactivé ». |
recurrence
Obligatoire
|
Périodicité de planification du pipeline. |
datastore_name
Obligatoire
|
Nom du magasin de données à surveiller pour les objets blob modifiés/ajoutés. Remarque : les magasins de données de réseau virtuel ne sont pas pris en charge. |
polling_interval
Obligatoire
|
Durée (en minutes) entre l’interrogation des blobs modifiés/ajoutés. |
data_path_parameter_name
Obligatoire
|
Nom du paramètre de pipeline relatif au chemin d’accès des données à définir avec le chemin d’accès des blobs modifiés. |
continue_on_step_failure
Obligatoire
|
Indique s’il faut poursuivre l’exécution des autres étapes du PipelineRun envoyé si une étape échoue. S’il est fourni, cela remplace le paramètre continue_on_step_failure pour le pipeline. |
path_on_datastore
Obligatoire
|
Optionnel. Chemin d’accès sur le magasin de données à surveiller pour les blobs modifiés/ajoutés. Remarque : le path_on_datastore se trouve sous le conteneur du magasin de données. Par conséquent, le chemin d’accès réel que la planification surveillera sera conteneur/path_on_datastore. S’il n’y en a aucun, le conteneur du magasin de données est surveillé. Les ajouts/modifications apportés dans un sous-dossier de la path_on_datastore ne sont pas surveillés. Uniquement pris en charge pour les planifications dataStore. |
_schedule_provider
Obligatoire
|
<xref:azureml.pipeline.core._aeva_provider._AevaScheduleProvider>
Fournisseur de planification. |
pipeline_endpoint_id
|
ID du point de terminaison de pipeline que la planification envoie. Valeur par défaut: None
|
Remarques
Deux types de planifications sont pris en charge. La première utilise la périodicité du temps pour envoyer un pipeline selon une planification donnée. Le deuxième surveille les AzureBlobDatastore objets blob ajoutés ou modifiés et envoie un pipeline lorsque des modifications sont détectées.
Pour créer une planification qui envoie un pipeline selon une planification périodique, utilisez-la ScheduleRecurrence lors de la création de la planification.
Une planificationRecurrence est utilisée lors de la création d’une planification pour un pipeline comme suit :
from azureml.pipeline.core import Schedule, ScheduleRecurrence
recurrence = ScheduleRecurrence(frequency="Hour", interval=12)
schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
experiment_name="helloworld", recurrence=recurrence)
Cette planification soumet les heures fournies PublishedPipeline toutes les 12 heures. Le pipeline envoyé est créé sous l’expérience portant le nom « helloworld ».
Pour créer une planification qui déclenche PipelineRuns lors des modifications apportées à un emplacement de stockage Blob, spécifiez un magasin de données et des informations de données associées lors de la création de la planification.
from azureml.pipeline.core import Schedule
from azureml.core.datastore import Datastore
datastore = Datastore(workspace=ws, name="workspaceblobstore")
schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id"
experiment_name="helloworld", datastore=datastore,
polling_interval=5, path_on_datastore="file/path")
Notez que les paramètres polling_interval et path_on_datastore sont facultatifs. L’polling_interval spécifie la fréquence à laquelle interroger les modifications apportées au magasin de données et, par défaut, est de 5 minutes. path_on_datastore pouvez être utilisé pour spécifier le dossier du magasin de données à surveiller pour les modifications. Si ce n’est pas le cas, le conteneur de magasins de données est surveillé. Remarque : les ajouts/modifications d’objets blob dans les sous-dossiers de l’path_on_datastore ou du conteneur de magasin de données (si aucune path_on_datastore n’est spécifiée) ne sont pas détectées.
En outre, si le pipeline a été construit pour décrire DataPathPipelineParameter une entrée d’étape, utilisez le paramètre data_path_parameter_name lors de la création d’une planification déclenchée par le magasin de données pour définir l’entrée sur le fichier modifié lorsqu’un PipelineRun est soumis par la planification.
Dans l’exemple suivant, lorsque la planification déclenche PipelineRun, la valeur du PipelineParameter « input_data » est définie comme fichier modifié/ajouté :
from azureml.pipeline.core import Schedule
from azureml.core.datastore import Datastore
datastore = Datastore(workspace=ws, name="workspaceblobstore")
schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
experiment_name="helloworld", datastore=datastore,
data_path_parameter_name="input_data")
Pour plus d’informations sur les planifications, consultez : https://aka.ms/pl-schedule.
Méthodes
create |
Créez une planification pour un pipeline. Spécifiez la périodicité d’une planification basée sur le temps ou spécifiez un magasin de données, (facultatif) polling_interval et (facultatif) data_path_parameter_name pour créer une planification qui surveillera l’emplacement du magasin de données pour les modifications/ajouts. |
create_for_pipeline_endpoint |
Créez une planification pour un point de terminaison de pipeline. Spécifiez la périodicité d’une planification basée sur le temps ou spécifiez un magasin de données, (facultatif) polling_interval et (facultatif) data_path_parameter_name pour créer une planification qui surveillera l’emplacement du magasin de données pour les modifications/ajouts. |
disable |
Définissez la planification sur « Désactivé » et indisponible pour s’exécuter. |
enable |
Définissez la planification sur « Actif » et disponible pour s’exécuter. |
get |
Obtenez la planification avec l’ID donné. |
get_all |
Obtenez toutes les planifications dans l’espace de travail actuel. DÉCONSEILLÉE : cette méthode est déconseillée en faveur de la list méthode. |
get_last_pipeline_run |
Récupérez la dernière exécution du pipeline envoyée par la planification. Retourne Aucune si aucune exécution n’a été envoyée. |
get_pipeline_runs |
Récupérez les exécutions du pipeline générées à partir de la planification. |
get_schedules_for_pipeline_endpoint_id |
Obtenez toutes les planifications pour l’ID de point de terminaison de pipeline donné. |
get_schedules_for_pipeline_id |
Obtenez toutes les planifications pour l’ID de pipeline donné. |
list |
Obtenez toutes les planifications dans l’espace de travail actuel. |
load_yaml |
Chargez et lisez le fichier YAML pour obtenir les paramètres de planification. Le fichier YAML est un autre moyen de passer des paramètres de planification pour créer une planification. |
update |
Mettez à jour la planification. |
create
Créez une planification pour un pipeline.
Spécifiez la périodicité d’une planification basée sur le temps ou spécifiez un magasin de données, (facultatif) polling_interval et (facultatif) data_path_parameter_name pour créer une planification qui surveillera l’emplacement du magasin de données pour les modifications/ajouts.
static create(workspace, name, pipeline_id, experiment_name, recurrence=None, description=None, pipeline_parameters=None, wait_for_provisioning=False, wait_timeout=3600, datastore=None, polling_interval=5, data_path_parameter_name=None, continue_on_step_failure=None, path_on_datastore=None, _workflow_provider=None, _service_endpoint=None)
Paramètres
Nom | Description |
---|---|
workspace
Obligatoire
|
L’objet d’espace de travail auquel appartient cette planification. |
name
Obligatoire
|
Nom de la planification. |
pipeline_id
Obligatoire
|
ID du pipeline que la planification envoie. |
experiment_name
Obligatoire
|
Nom de l’expérience sur laquelle la planification envoie s’exécute. |
recurrence
|
Périodicité de planification du pipeline. Valeur par défaut: None
|
description
|
Description de la planification. Valeur par défaut: None
|
pipeline_parameters
|
Dictionnaire de paramètres pour affecter de nouvelles valeurs {param name, param value} Valeur par défaut: None
|
wait_for_provisioning
|
Indique s’il faut attendre la fin de l’approvisionnement de la planification. Valeur par défaut: False
|
wait_timeout
|
Nombre de secondes à attendre avant l’expiration du délai. Valeur par défaut: 3600
|
datastore
|
Magasin de données à surveiller pour les objets blob modifiés/ajoutés. Remarque : les magasins de données de réseau virtuel ne sont pas pris en charge. Impossible d’utiliser avec une périodicité. Valeur par défaut: None
|
polling_interval
|
Durée (en minutes) entre l’interrogation des blobs modifiés/ajoutés. La valeur par défaut est de 5 minutes. Uniquement pris en charge pour les planifications dataStore. Valeur par défaut: 5
|
data_path_parameter_name
|
Nom du paramètre de pipeline relatif au chemin d’accès des données à définir avec le chemin d’accès des blobs modifiés. Uniquement pris en charge pour les planifications dataStore. Valeur par défaut: None
|
continue_on_step_failure
|
Indique s’il faut poursuivre l’exécution des autres étapes du PipelineRun envoyé si une étape échoue. S’il est fourni, cela remplace le paramètre continue_on_step_failure pour le pipeline. Valeur par défaut: None
|
path_on_datastore
|
Optionnel. Chemin d’accès sur le magasin de données à surveiller pour les blobs modifiés/ajoutés. Remarque : le path_on_datastore se trouve sous le conteneur du magasin de données. Par conséquent, le chemin d’accès réel que la planification surveillera sera conteneur/path_on_datastore. S’il n’y en a aucun, le conteneur du magasin de données est surveillé. Les ajouts/modifications apportés dans un sous-dossier de la path_on_datastore ne sont pas surveillés. Uniquement pris en charge pour les planifications dataStore. Valeur par défaut: None
|
_workflow_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
Fournisseur de flux de travail. Valeur par défaut: None
|
_service_endpoint
|
Point de terminaison de service. Valeur par défaut: None
|
Retours
Type | Description |
---|---|
Planification créée. |
create_for_pipeline_endpoint
Créez une planification pour un point de terminaison de pipeline.
Spécifiez la périodicité d’une planification basée sur le temps ou spécifiez un magasin de données, (facultatif) polling_interval et (facultatif) data_path_parameter_name pour créer une planification qui surveillera l’emplacement du magasin de données pour les modifications/ajouts.
static create_for_pipeline_endpoint(workspace, name, pipeline_endpoint_id, experiment_name, recurrence=None, description=None, pipeline_parameters=None, wait_for_provisioning=False, wait_timeout=3600, datastore=None, polling_interval=5, data_path_parameter_name=None, continue_on_step_failure=None, path_on_datastore=None, _workflow_provider=None, _service_endpoint=None)
Paramètres
Nom | Description |
---|---|
workspace
Obligatoire
|
L’objet d’espace de travail auquel appartient cette planification. |
name
Obligatoire
|
Nom de la planification. |
pipeline_endpoint_id
Obligatoire
|
ID du point de terminaison de pipeline que la planification envoie. |
experiment_name
Obligatoire
|
Nom de l’expérience sur laquelle la planification envoie s’exécute. |
recurrence
|
Périodicité de planification du pipeline. Valeur par défaut: None
|
description
|
Description de la planification. Valeur par défaut: None
|
pipeline_parameters
|
Dictionnaire de paramètres pour affecter de nouvelles valeurs {param name, param value} Valeur par défaut: None
|
wait_for_provisioning
|
Indique s’il faut attendre la fin de l’approvisionnement de la planification. Valeur par défaut: False
|
wait_timeout
|
Nombre de secondes à attendre avant l’expiration du délai. Valeur par défaut: 3600
|
datastore
|
Magasin de données à surveiller pour les objets blob modifiés/ajoutés. Remarque : les magasins de données de réseau virtuel ne sont pas pris en charge. Impossible d’utiliser avec une périodicité. Valeur par défaut: None
|
polling_interval
|
Durée (en minutes) entre l’interrogation des blobs modifiés/ajoutés. La valeur par défaut est de 5 minutes. Uniquement pris en charge pour les planifications dataStore. Valeur par défaut: 5
|
data_path_parameter_name
|
Nom du paramètre de pipeline relatif au chemin d’accès des données à définir avec le chemin d’accès des blobs modifiés. Uniquement pris en charge pour les planifications dataStore. Valeur par défaut: None
|
continue_on_step_failure
|
Indique s’il faut poursuivre l’exécution des autres étapes du PipelineRun envoyé si une étape échoue. S’il est fourni, cela remplace le paramètre continue_on_step_failure pour le pipeline. Valeur par défaut: None
|
path_on_datastore
|
Optionnel. Chemin d’accès sur le magasin de données à surveiller pour les blobs modifiés/ajoutés. Remarque : le path_on_datastore se trouve sous le conteneur du magasin de données. Par conséquent, le chemin d’accès réel que la planification surveillera sera conteneur/path_on_datastore. S’il n’y en a aucun, le conteneur du magasin de données est surveillé. Les ajouts/modifications apportés dans un sous-dossier de la path_on_datastore ne sont pas surveillés. Uniquement pris en charge pour les planifications dataStore. Valeur par défaut: None
|
_workflow_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
Fournisseur de flux de travail. Valeur par défaut: None
|
_service_endpoint
|
Point de terminaison de service. Valeur par défaut: None
|
Retours
Type | Description |
---|---|
Planification créée. |
disable
Définissez la planification sur « Désactivé » et indisponible pour s’exécuter.
disable(wait_for_provisioning=False, wait_timeout=3600)
Paramètres
Nom | Description |
---|---|
wait_for_provisioning
|
Indique s’il faut attendre la fin de l’approvisionnement de la planification. Valeur par défaut: False
|
wait_timeout
|
Nombre de secondes à attendre avant l’expiration du délai d’attente. Valeur par défaut: 3600
|
enable
Définissez la planification sur « Actif » et disponible pour s’exécuter.
enable(wait_for_provisioning=False, wait_timeout=3600)
Paramètres
Nom | Description |
---|---|
wait_for_provisioning
|
Indique s’il faut attendre la fin de l’approvisionnement de la planification. Valeur par défaut: False
|
wait_timeout
|
Nombre de secondes à attendre avant l’expiration du délai d’attente. Valeur par défaut: 3600
|
get
Obtenez la planification avec l’ID donné.
static get(workspace, id, _workflow_provider=None, _service_endpoint=None)
Paramètres
Nom | Description |
---|---|
workspace
Obligatoire
|
L’espace de travail sur lequel la planification a été créée. |
id
Obligatoire
|
ID de la planification. |
_workflow_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
Fournisseur de flux de travail. Valeur par défaut: None
|
_service_endpoint
|
Point de terminaison de service. Valeur par défaut: None
|
Retours
Type | Description |
---|---|
Objet de planification |
get_all
Obtenez toutes les planifications dans l’espace de travail actuel.
DÉCONSEILLÉE : cette méthode est déconseillée en faveur de la list méthode.
static get_all(workspace, active_only=True, pipeline_id=None, pipeline_endpoint_id=None, _workflow_provider=None, _service_endpoint=None)
Paramètres
Nom | Description |
---|---|
workspace
Obligatoire
|
Espace de travail. |
active_only
|
Si la valeur est true, retourne uniquement les planifications actuellement actives. S’applique uniquement si aucun ID de pipeline n’est fourni. Valeur par défaut: True
|
pipeline_id
|
Si elle est fournie, retournez uniquement des planifications pour le pipeline avec l’ID donné. Valeur par défaut: None
|
pipeline_endpoint_id
|
Si elle est fournie, retournez uniquement des planifications pour le point de terminaison de pipeline avec l’ID donné. Valeur par défaut: None
|
_workflow_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
Fournisseur de flux de travail. Valeur par défaut: None
|
_service_endpoint
|
Point de terminaison de service. Valeur par défaut: None
|
Retours
Type | Description |
---|---|
Une liste de Schedule. |
get_last_pipeline_run
Récupérez la dernière exécution du pipeline envoyée par la planification. Retourne Aucune si aucune exécution n’a été envoyée.
get_last_pipeline_run()
Retours
Type | Description |
---|---|
Dernière exécution du pipeline. |
get_pipeline_runs
Récupérez les exécutions du pipeline générées à partir de la planification.
get_pipeline_runs()
Retours
Type | Description |
---|---|
Une liste de PipelineRun. |
get_schedules_for_pipeline_endpoint_id
Obtenez toutes les planifications pour l’ID de point de terminaison de pipeline donné.
static get_schedules_for_pipeline_endpoint_id(workspace, pipeline_endpoint_id, _workflow_provider=None, _service_endpoint=None)
Paramètres
Nom | Description |
---|---|
workspace
Obligatoire
|
Espace de travail. |
pipeline_endpoint_id
Obligatoire
|
ID de point de terminaison du pipeline. |
_workflow_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
Fournisseur de flux de travail. Valeur par défaut: None
|
_service_endpoint
|
Point de terminaison de service. Valeur par défaut: None
|
Retours
Type | Description |
---|---|
Une liste de Schedule. |
get_schedules_for_pipeline_id
Obtenez toutes les planifications pour l’ID de pipeline donné.
static get_schedules_for_pipeline_id(workspace, pipeline_id, _workflow_provider=None, _service_endpoint=None)
Paramètres
Nom | Description |
---|---|
workspace
Obligatoire
|
Espace de travail. |
pipeline_id
Obligatoire
|
ID de pipeline. |
_workflow_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
Fournisseur de flux de travail. Valeur par défaut: None
|
_service_endpoint
|
Point de terminaison de service. Valeur par défaut: None
|
Retours
Type | Description |
---|---|
Une liste de Schedule. |
list
Obtenez toutes les planifications dans l’espace de travail actuel.
static list(workspace, active_only=True, pipeline_id=None, pipeline_endpoint_id=None, _workflow_provider=None, _service_endpoint=None)
Paramètres
Nom | Description |
---|---|
workspace
Obligatoire
|
Espace de travail. |
active_only
|
Si la valeur est true, retourne uniquement les planifications actuellement actives. S’applique uniquement si aucun ID de pipeline n’est fourni. Valeur par défaut: True
|
pipeline_id
|
Si elle est fournie, retournez uniquement des planifications pour le pipeline avec l’ID donné. Valeur par défaut: None
|
pipeline_endpoint_id
|
Si elle est fournie, retournez uniquement des planifications pour le point de terminaison de pipeline avec l’ID donné. Valeur par défaut: None
|
_workflow_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
Fournisseur de flux de travail. Valeur par défaut: None
|
_service_endpoint
|
Point de terminaison de service. Valeur par défaut: None
|
Retours
Type | Description |
---|---|
Une liste de Schedule. |
load_yaml
Chargez et lisez le fichier YAML pour obtenir les paramètres de planification.
Le fichier YAML est un autre moyen de passer des paramètres de planification pour créer une planification.
static load_yaml(workspace, filename, _workflow_provider=None, _service_endpoint=None)
Paramètres
Nom | Description |
---|---|
workspace
Obligatoire
|
Espace de travail. |
filename
Obligatoire
|
Nom de fichier YAML avec emplacement. |
_workflow_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
Fournisseur de flux de travail. Valeur par défaut: None
|
_service_endpoint
|
Point de terminaison de service. Valeur par défaut: None
|
Retours
Type | Description |
---|---|
Dictionnaire de paramètres et de Schedule valeurs. |
Remarques
Deux types de YAML sont pris en charge pour les planifications. La première lit et charge les informations de périodicité pour la création de planification pour déclencher le pipeline. La deuxième lit et charge les informations de magasin de données pour planifier la création de pipeline pour déclencher le pipeline.
Exemple de création d’une planification qui envoie un pipeline sur une périodicité, comme suit :
from azureml.pipeline.core import Schedule
schedule_info = Schedule.load_yaml(workspace=workspace,
filename='./yaml/test_schedule_with_recurrence.yaml')
schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
experiment_name="helloworld", recurrence=schedule_info.get("recurrence"),
description=schedule_info.get("description"))
Exemple de fichier YAML test_schedule_with_recurrence.yaml :
Schedule:
description: "Test create with recurrence"
recurrence:
frequency: Week # Can be "Minute", "Hour", "Day", "Week", or "Month".
interval: 1 # how often fires
start_time: 2019-06-07T10:50:00
time_zone: UTC
hours:
- 1
minutes:
- 0
time_of_day: null
week_days:
- Friday
pipeline_parameters: {'a':1}
wait_for_provisioning: True
wait_timeout: 3600
datastore_name: ~
polling_interval: ~
data_path_parameter_name: ~
continue_on_step_failure: None
path_on_datastore: ~
Exemple de création d’une planification qui envoie un pipeline sur un magasin de données, comme suit :
from azureml.pipeline.core import Schedule
schedule_info = Schedule.load_yaml(workspace=workspace,
filename='./yaml/test_schedule_with_datastore.yaml')
schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
experiment_name="helloworld",datastore=schedule_info.get("datastore_name"),
polling_interval=schedule_info.get("polling_interval"),
data_path_parameter_name=schedule_info.get("data_path_parameter_name"),
continue_on_step_failure=schedule_info.get("continue_on_step_failure"),
path_on_datastore=schedule_info.get("path_on_datastore"))
update
Mettez à jour la planification.
update(name=None, description=None, recurrence=None, pipeline_parameters=None, status=None, wait_for_provisioning=False, wait_timeout=3600, datastore=None, polling_interval=None, data_path_parameter_name=None, continue_on_step_failure=None, path_on_datastore=None)
Paramètres
Nom | Description |
---|---|
name
|
Nouveau nom de la planification. Valeur par défaut: None
|
recurrence
|
Nouvelle périodicité de planification du pipeline. Valeur par défaut: None
|
description
|
Nouvelle description de la planification. Valeur par défaut: None
|
pipeline_parameters
|
Dictionnaire de paramètres pour affecter de nouvelles valeurs {nom param, valeur param}. Valeur par défaut: None
|
status
|
Nouvel état de la planification : « Actif » ou « Désactivé ». Valeur par défaut: None
|
wait_for_provisioning
|
Indique s’il faut attendre la fin de l’approvisionnement de la planification. Valeur par défaut: False
|
wait_timeout
|
Nombre de secondes à attendre avant l’expiration du délai. Valeur par défaut: 3600
|
datastore
|
Magasin de données à surveiller pour les objets blob modifiés/ajoutés. Remarque : les magasins de données de réseau virtuel ne sont pas pris en charge. Valeur par défaut: None
|
polling_interval
|
Durée (en minutes) entre l’interrogation des blobs modifiés/ajoutés. La valeur par défaut est de 5 minutes. Valeur par défaut: None
|
data_path_parameter_name
|
Nom du paramètre de pipeline relatif au chemin d’accès des données à définir avec le chemin d’accès des blobs modifiés. Valeur par défaut: None
|
continue_on_step_failure
|
Indique s’il faut poursuivre l’exécution des autres étapes du PipelineRun envoyé si une étape échoue. S’il est fourni, cela remplace le paramètre continue_on_step_failure pour le pipeline. Valeur par défaut: None
|
path_on_datastore
|
Optionnel. Chemin d’accès sur le magasin de données à surveiller pour les blobs modifiés/ajoutés. Remarque : le path_on_datastore se trouve sous le conteneur du magasin de données. Par conséquent, le chemin d’accès réel que la planification surveillera sera conteneur/path_on_datastore. S’il n’y en a aucun, le conteneur du magasin de données est surveillé. Les ajouts/modifications apportés dans un sous-dossier de la path_on_datastore ne sont pas surveillés. Uniquement pris en charge pour les planifications dataStore. Valeur par défaut: None
|
Attributs
continue_on_step_failure
Obtenez la valeur du continue_on_step_failure
paramètre.
Retours
Type | Description |
---|---|
Valeur du |
data_path_parameter_name
Obtenez le nom du paramètre de pipeline de chemin d’accès aux données à définir avec le chemin d’accès d’objet blob modifié.
Retours
Type | Description |
---|---|
Nom du paramètre de chemin d’accès aux données. |
datastore_name
Obtenez le nom du magasin de données utilisé pour la planification.
Retours
Type | Description |
---|---|
Nom du magasin de données. |
description
Obtenez la description de la planification.
Retours
Type | Description |
---|---|
Description de la planification. |
id
name
path_on_datastore
Obtenez le chemin d’accès sur le magasin de données que la planification surveille.
Retours
Type | Description |
---|---|
Chemin d’accès du magasin de données. |
pipeline_endpoint_id
Obtenez l’ID du point de terminaison du pipeline que la planification envoie.
Retours
Type | Description |
---|---|
The ID. |
pipeline_id
polling_interval
Obtenez la durée, en minutes, entre l’interrogation des objets blob modifiés/ajoutés.
Retours
Type | Description |
---|---|
Intervalle d’interrogation. |
recurrence
Obtenez la périodicité de la planification.
Retours
Type | Description |
---|---|
Périodicité de la planification. |