Partager via


Schedule Classe

Définit une planification sur laquelle envoyer un pipeline.

Une fois qu’un pipeline est publié, une planification peut être utilisée pour envoyer le pipeline à un intervalle spécifié ou lorsque les modifications apportées à un emplacement de stockage d’objets blob sont détectées.

Initialiser la planification.

Constructeur

Schedule(workspace, id, name, description, pipeline_id, status, recurrence, datastore_name, polling_interval, data_path_parameter_name, continue_on_step_failure, path_on_datastore, _schedule_provider=None, pipeline_endpoint_id=None)

Paramètres

Nom Description
workspace
Obligatoire

L’objet d’espace de travail auquel appartient cette planification.

id
Obligatoire
str

ID de la planification.

name
Obligatoire
str

Nom de la planification.

description
Obligatoire
str

Description de la planification.

pipeline_id
Obligatoire
str

ID du pipeline que la planification envoie.

status
Obligatoire
str

État de la planification, « Actif » ou « Désactivé ».

recurrence
Obligatoire

Périodicité de planification du pipeline.

datastore_name
Obligatoire
str

Nom du magasin de données à surveiller pour les objets blob modifiés/ajoutés. Remarque : 1) Les magasins de données de réseau virtuel ne sont pas pris en charge. 2) Le type d’authentification du magasin de données doit être défini sur « Clé de compte ».

polling_interval
Obligatoire
int

Durée (en minutes) entre l’interrogation des blobs modifiés/ajoutés.

data_path_parameter_name
Obligatoire
str

Nom du paramètre de pipeline relatif au chemin d’accès des données à définir avec le chemin d’accès des blobs modifiés.

continue_on_step_failure
Obligatoire

Indique s’il faut poursuivre l’exécution des autres étapes du PipelineRun envoyé si une étape échoue. S’il est fourni, cela remplace le paramètre continue_on_step_failure pour le pipeline.

path_on_datastore
Obligatoire
str

Optionnel. Chemin d’accès sur le magasin de données à surveiller pour les blobs modifiés/ajoutés. Remarque : le path_on_datastore se trouve sous le conteneur du magasin de données. Par conséquent, le chemin d’accès réel que la planification surveillera sera conteneur/path_on_datastore. S’il n’y en a aucun, le conteneur du magasin de données est surveillé. Les ajouts/modifications apportés dans un sous-dossier de la path_on_datastore ne sont pas surveillés. Uniquement pris en charge pour les planifications dataStore.

_schedule_provider
<xref:azureml.pipeline.core._aeva_provider._AevaScheduleProvider>

Fournisseur de planification.

Valeur par défaut: None
workspace
Obligatoire

L’objet d’espace de travail auquel appartient cette planification.

id
Obligatoire
str

ID de la planification.

name
Obligatoire
str

Nom de la planification.

description
Obligatoire
str

Description de la planification.

pipeline_id
Obligatoire
str

ID du pipeline que la planification envoie.

status
Obligatoire
str

État de la planification, « Actif » ou « Désactivé ».

recurrence
Obligatoire

Périodicité de planification du pipeline.

datastore_name
Obligatoire
str

Nom du magasin de données à surveiller pour les objets blob modifiés/ajoutés. Remarque : les magasins de données de réseau virtuel ne sont pas pris en charge.

polling_interval
Obligatoire
int

Durée (en minutes) entre l’interrogation des blobs modifiés/ajoutés.

data_path_parameter_name
Obligatoire
str

Nom du paramètre de pipeline relatif au chemin d’accès des données à définir avec le chemin d’accès des blobs modifiés.

continue_on_step_failure
Obligatoire

Indique s’il faut poursuivre l’exécution des autres étapes du PipelineRun envoyé si une étape échoue. S’il est fourni, cela remplace le paramètre continue_on_step_failure pour le pipeline.

path_on_datastore
Obligatoire
str

Optionnel. Chemin d’accès sur le magasin de données à surveiller pour les blobs modifiés/ajoutés. Remarque : le path_on_datastore se trouve sous le conteneur du magasin de données. Par conséquent, le chemin d’accès réel que la planification surveillera sera conteneur/path_on_datastore. S’il n’y en a aucun, le conteneur du magasin de données est surveillé. Les ajouts/modifications apportés dans un sous-dossier de la path_on_datastore ne sont pas surveillés. Uniquement pris en charge pour les planifications dataStore.

_schedule_provider
Obligatoire
<xref:azureml.pipeline.core._aeva_provider._AevaScheduleProvider>

Fournisseur de planification.

pipeline_endpoint_id
str

ID du point de terminaison de pipeline que la planification envoie.

Valeur par défaut: None

Remarques

Deux types de planifications sont pris en charge. La première utilise la périodicité du temps pour envoyer un pipeline selon une planification donnée. Le deuxième surveille les AzureBlobDatastore objets blob ajoutés ou modifiés et envoie un pipeline lorsque des modifications sont détectées.

Pour créer une planification qui envoie un pipeline selon une planification périodique, utilisez-la ScheduleRecurrence lors de la création de la planification.

Une planificationRecurrence est utilisée lors de la création d’une planification pour un pipeline comme suit :


   from azureml.pipeline.core import Schedule, ScheduleRecurrence

   recurrence = ScheduleRecurrence(frequency="Hour", interval=12)
   schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
                              experiment_name="helloworld", recurrence=recurrence)

Cette planification soumet les heures fournies PublishedPipeline toutes les 12 heures. Le pipeline envoyé est créé sous l’expérience portant le nom « helloworld ».

Pour créer une planification qui déclenche PipelineRuns lors des modifications apportées à un emplacement de stockage Blob, spécifiez un magasin de données et des informations de données associées lors de la création de la planification.


   from azureml.pipeline.core import Schedule
   from azureml.core.datastore import Datastore

   datastore = Datastore(workspace=ws, name="workspaceblobstore")

   schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id"
                              experiment_name="helloworld", datastore=datastore,
                              polling_interval=5, path_on_datastore="file/path")

Notez que les paramètres polling_interval et path_on_datastore sont facultatifs. L’polling_interval spécifie la fréquence à laquelle interroger les modifications apportées au magasin de données et, par défaut, est de 5 minutes. path_on_datastore pouvez être utilisé pour spécifier le dossier du magasin de données à surveiller pour les modifications. Si ce n’est pas le cas, le conteneur de magasins de données est surveillé. Remarque : les ajouts/modifications d’objets blob dans les sous-dossiers de l’path_on_datastore ou du conteneur de magasin de données (si aucune path_on_datastore n’est spécifiée) ne sont pas détectées.

En outre, si le pipeline a été construit pour décrire DataPathPipelineParameter une entrée d’étape, utilisez le paramètre data_path_parameter_name lors de la création d’une planification déclenchée par le magasin de données pour définir l’entrée sur le fichier modifié lorsqu’un PipelineRun est soumis par la planification.

Dans l’exemple suivant, lorsque la planification déclenche PipelineRun, la valeur du PipelineParameter « input_data » est définie comme fichier modifié/ajouté :


   from azureml.pipeline.core import Schedule
   from azureml.core.datastore import Datastore

   datastore = Datastore(workspace=ws, name="workspaceblobstore")

   schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
                              experiment_name="helloworld", datastore=datastore,
                              data_path_parameter_name="input_data")

Pour plus d’informations sur les planifications, consultez : https://aka.ms/pl-schedule.

Méthodes

create

Créez une planification pour un pipeline.

Spécifiez la périodicité d’une planification basée sur le temps ou spécifiez un magasin de données, (facultatif) polling_interval et (facultatif) data_path_parameter_name pour créer une planification qui surveillera l’emplacement du magasin de données pour les modifications/ajouts.

create_for_pipeline_endpoint

Créez une planification pour un point de terminaison de pipeline.

Spécifiez la périodicité d’une planification basée sur le temps ou spécifiez un magasin de données, (facultatif) polling_interval et (facultatif) data_path_parameter_name pour créer une planification qui surveillera l’emplacement du magasin de données pour les modifications/ajouts.

disable

Définissez la planification sur « Désactivé » et indisponible pour s’exécuter.

enable

Définissez la planification sur « Actif » et disponible pour s’exécuter.

get

Obtenez la planification avec l’ID donné.

get_all

Obtenez toutes les planifications dans l’espace de travail actuel.

DÉCONSEILLÉE : cette méthode est déconseillée en faveur de la list méthode.

get_last_pipeline_run

Récupérez la dernière exécution du pipeline envoyée par la planification. Retourne Aucune si aucune exécution n’a été envoyée.

get_pipeline_runs

Récupérez les exécutions du pipeline générées à partir de la planification.

get_schedules_for_pipeline_endpoint_id

Obtenez toutes les planifications pour l’ID de point de terminaison de pipeline donné.

get_schedules_for_pipeline_id

Obtenez toutes les planifications pour l’ID de pipeline donné.

list

Obtenez toutes les planifications dans l’espace de travail actuel.

load_yaml

Chargez et lisez le fichier YAML pour obtenir les paramètres de planification.

Le fichier YAML est un autre moyen de passer des paramètres de planification pour créer une planification.

update

Mettez à jour la planification.

create

Créez une planification pour un pipeline.

Spécifiez la périodicité d’une planification basée sur le temps ou spécifiez un magasin de données, (facultatif) polling_interval et (facultatif) data_path_parameter_name pour créer une planification qui surveillera l’emplacement du magasin de données pour les modifications/ajouts.

static create(workspace, name, pipeline_id, experiment_name, recurrence=None, description=None, pipeline_parameters=None, wait_for_provisioning=False, wait_timeout=3600, datastore=None, polling_interval=5, data_path_parameter_name=None, continue_on_step_failure=None, path_on_datastore=None, _workflow_provider=None, _service_endpoint=None)

Paramètres

Nom Description
workspace
Obligatoire

L’objet d’espace de travail auquel appartient cette planification.

name
Obligatoire
str

Nom de la planification.

pipeline_id
Obligatoire
str

ID du pipeline que la planification envoie.

experiment_name
Obligatoire
str

Nom de l’expérience sur laquelle la planification envoie s’exécute.

recurrence

Périodicité de planification du pipeline.

Valeur par défaut: None
description
str

Description de la planification.

Valeur par défaut: None
pipeline_parameters

Dictionnaire de paramètres pour affecter de nouvelles valeurs {param name, param value}

Valeur par défaut: None
wait_for_provisioning

Indique s’il faut attendre la fin de l’approvisionnement de la planification.

Valeur par défaut: False
wait_timeout
int

Nombre de secondes à attendre avant l’expiration du délai.

Valeur par défaut: 3600
datastore

Magasin de données à surveiller pour les objets blob modifiés/ajoutés. Remarque : les magasins de données de réseau virtuel ne sont pas pris en charge. Impossible d’utiliser avec une périodicité.

Valeur par défaut: None
polling_interval
int

Durée (en minutes) entre l’interrogation des blobs modifiés/ajoutés. La valeur par défaut est de 5 minutes. Uniquement pris en charge pour les planifications dataStore.

Valeur par défaut: 5
data_path_parameter_name
str

Nom du paramètre de pipeline relatif au chemin d’accès des données à définir avec le chemin d’accès des blobs modifiés. Uniquement pris en charge pour les planifications dataStore.

Valeur par défaut: None
continue_on_step_failure

Indique s’il faut poursuivre l’exécution des autres étapes du PipelineRun envoyé si une étape échoue. S’il est fourni, cela remplace le paramètre continue_on_step_failure pour le pipeline.

Valeur par défaut: None
path_on_datastore
str

Optionnel. Chemin d’accès sur le magasin de données à surveiller pour les blobs modifiés/ajoutés. Remarque : le path_on_datastore se trouve sous le conteneur du magasin de données. Par conséquent, le chemin d’accès réel que la planification surveillera sera conteneur/path_on_datastore. S’il n’y en a aucun, le conteneur du magasin de données est surveillé. Les ajouts/modifications apportés dans un sous-dossier de la path_on_datastore ne sont pas surveillés. Uniquement pris en charge pour les planifications dataStore.

Valeur par défaut: None
_workflow_provider
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>

Fournisseur de flux de travail.

Valeur par défaut: None
_service_endpoint
str

Point de terminaison de service.

Valeur par défaut: None

Retours

Type Description

Planification créée.

create_for_pipeline_endpoint

Créez une planification pour un point de terminaison de pipeline.

Spécifiez la périodicité d’une planification basée sur le temps ou spécifiez un magasin de données, (facultatif) polling_interval et (facultatif) data_path_parameter_name pour créer une planification qui surveillera l’emplacement du magasin de données pour les modifications/ajouts.

static create_for_pipeline_endpoint(workspace, name, pipeline_endpoint_id, experiment_name, recurrence=None, description=None, pipeline_parameters=None, wait_for_provisioning=False, wait_timeout=3600, datastore=None, polling_interval=5, data_path_parameter_name=None, continue_on_step_failure=None, path_on_datastore=None, _workflow_provider=None, _service_endpoint=None)

Paramètres

Nom Description
workspace
Obligatoire

L’objet d’espace de travail auquel appartient cette planification.

name
Obligatoire
str

Nom de la planification.

pipeline_endpoint_id
Obligatoire
str

ID du point de terminaison de pipeline que la planification envoie.

experiment_name
Obligatoire
str

Nom de l’expérience sur laquelle la planification envoie s’exécute.

recurrence

Périodicité de planification du pipeline.

Valeur par défaut: None
description
str

Description de la planification.

Valeur par défaut: None
pipeline_parameters

Dictionnaire de paramètres pour affecter de nouvelles valeurs {param name, param value}

Valeur par défaut: None
wait_for_provisioning

Indique s’il faut attendre la fin de l’approvisionnement de la planification.

Valeur par défaut: False
wait_timeout
int

Nombre de secondes à attendre avant l’expiration du délai.

Valeur par défaut: 3600
datastore

Magasin de données à surveiller pour les objets blob modifiés/ajoutés. Remarque : les magasins de données de réseau virtuel ne sont pas pris en charge. Impossible d’utiliser avec une périodicité.

Valeur par défaut: None
polling_interval
int

Durée (en minutes) entre l’interrogation des blobs modifiés/ajoutés. La valeur par défaut est de 5 minutes. Uniquement pris en charge pour les planifications dataStore.

Valeur par défaut: 5
data_path_parameter_name
str

Nom du paramètre de pipeline relatif au chemin d’accès des données à définir avec le chemin d’accès des blobs modifiés. Uniquement pris en charge pour les planifications dataStore.

Valeur par défaut: None
continue_on_step_failure

Indique s’il faut poursuivre l’exécution des autres étapes du PipelineRun envoyé si une étape échoue. S’il est fourni, cela remplace le paramètre continue_on_step_failure pour le pipeline.

Valeur par défaut: None
path_on_datastore
str

Optionnel. Chemin d’accès sur le magasin de données à surveiller pour les blobs modifiés/ajoutés. Remarque : le path_on_datastore se trouve sous le conteneur du magasin de données. Par conséquent, le chemin d’accès réel que la planification surveillera sera conteneur/path_on_datastore. S’il n’y en a aucun, le conteneur du magasin de données est surveillé. Les ajouts/modifications apportés dans un sous-dossier de la path_on_datastore ne sont pas surveillés. Uniquement pris en charge pour les planifications dataStore.

Valeur par défaut: None
_workflow_provider
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>

Fournisseur de flux de travail.

Valeur par défaut: None
_service_endpoint
str

Point de terminaison de service.

Valeur par défaut: None

Retours

Type Description

Planification créée.

disable

Définissez la planification sur « Désactivé » et indisponible pour s’exécuter.

disable(wait_for_provisioning=False, wait_timeout=3600)

Paramètres

Nom Description
wait_for_provisioning

Indique s’il faut attendre la fin de l’approvisionnement de la planification.

Valeur par défaut: False
wait_timeout
int

Nombre de secondes à attendre avant l’expiration du délai d’attente.

Valeur par défaut: 3600

enable

Définissez la planification sur « Actif » et disponible pour s’exécuter.

enable(wait_for_provisioning=False, wait_timeout=3600)

Paramètres

Nom Description
wait_for_provisioning

Indique s’il faut attendre la fin de l’approvisionnement de la planification.

Valeur par défaut: False
wait_timeout
int

Nombre de secondes à attendre avant l’expiration du délai d’attente.

Valeur par défaut: 3600

get

Obtenez la planification avec l’ID donné.

static get(workspace, id, _workflow_provider=None, _service_endpoint=None)

Paramètres

Nom Description
workspace
Obligatoire

L’espace de travail sur lequel la planification a été créée.

id
Obligatoire
str

ID de la planification.

_workflow_provider
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>

Fournisseur de flux de travail.

Valeur par défaut: None
_service_endpoint
str

Point de terminaison de service.

Valeur par défaut: None

Retours

Type Description

Objet de planification

get_all

Obtenez toutes les planifications dans l’espace de travail actuel.

DÉCONSEILLÉE : cette méthode est déconseillée en faveur de la list méthode.

static get_all(workspace, active_only=True, pipeline_id=None, pipeline_endpoint_id=None, _workflow_provider=None, _service_endpoint=None)

Paramètres

Nom Description
workspace
Obligatoire

Espace de travail.

active_only

Si la valeur est true, retourne uniquement les planifications actuellement actives. S’applique uniquement si aucun ID de pipeline n’est fourni.

Valeur par défaut: True
pipeline_id
str

Si elle est fournie, retournez uniquement des planifications pour le pipeline avec l’ID donné.

Valeur par défaut: None
pipeline_endpoint_id
str

Si elle est fournie, retournez uniquement des planifications pour le point de terminaison de pipeline avec l’ID donné.

Valeur par défaut: None
_workflow_provider
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>

Fournisseur de flux de travail.

Valeur par défaut: None
_service_endpoint
str

Point de terminaison de service.

Valeur par défaut: None

Retours

Type Description

Une liste de Schedule.

get_last_pipeline_run

Récupérez la dernière exécution du pipeline envoyée par la planification. Retourne Aucune si aucune exécution n’a été envoyée.

get_last_pipeline_run()

Retours

Type Description

Dernière exécution du pipeline.

get_pipeline_runs

Récupérez les exécutions du pipeline générées à partir de la planification.

get_pipeline_runs()

Retours

Type Description

Une liste de PipelineRun.

get_schedules_for_pipeline_endpoint_id

Obtenez toutes les planifications pour l’ID de point de terminaison de pipeline donné.

static get_schedules_for_pipeline_endpoint_id(workspace, pipeline_endpoint_id, _workflow_provider=None, _service_endpoint=None)

Paramètres

Nom Description
workspace
Obligatoire

Espace de travail.

pipeline_endpoint_id
Obligatoire
str

ID de point de terminaison du pipeline.

_workflow_provider
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>

Fournisseur de flux de travail.

Valeur par défaut: None
_service_endpoint
str

Point de terminaison de service.

Valeur par défaut: None

Retours

Type Description

Une liste de Schedule.

get_schedules_for_pipeline_id

Obtenez toutes les planifications pour l’ID de pipeline donné.

static get_schedules_for_pipeline_id(workspace, pipeline_id, _workflow_provider=None, _service_endpoint=None)

Paramètres

Nom Description
workspace
Obligatoire

Espace de travail.

pipeline_id
Obligatoire
str

ID de pipeline.

_workflow_provider
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>

Fournisseur de flux de travail.

Valeur par défaut: None
_service_endpoint
str

Point de terminaison de service.

Valeur par défaut: None

Retours

Type Description

Une liste de Schedule.

list

Obtenez toutes les planifications dans l’espace de travail actuel.

static list(workspace, active_only=True, pipeline_id=None, pipeline_endpoint_id=None, _workflow_provider=None, _service_endpoint=None)

Paramètres

Nom Description
workspace
Obligatoire

Espace de travail.

active_only

Si la valeur est true, retourne uniquement les planifications actuellement actives. S’applique uniquement si aucun ID de pipeline n’est fourni.

Valeur par défaut: True
pipeline_id
str

Si elle est fournie, retournez uniquement des planifications pour le pipeline avec l’ID donné.

Valeur par défaut: None
pipeline_endpoint_id
str

Si elle est fournie, retournez uniquement des planifications pour le point de terminaison de pipeline avec l’ID donné.

Valeur par défaut: None
_workflow_provider
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>

Fournisseur de flux de travail.

Valeur par défaut: None
_service_endpoint
str

Point de terminaison de service.

Valeur par défaut: None

Retours

Type Description

Une liste de Schedule.

load_yaml

Chargez et lisez le fichier YAML pour obtenir les paramètres de planification.

Le fichier YAML est un autre moyen de passer des paramètres de planification pour créer une planification.

static load_yaml(workspace, filename, _workflow_provider=None, _service_endpoint=None)

Paramètres

Nom Description
workspace
Obligatoire

Espace de travail.

filename
Obligatoire
str

Nom de fichier YAML avec emplacement.

_workflow_provider
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>

Fournisseur de flux de travail.

Valeur par défaut: None
_service_endpoint
str

Point de terminaison de service.

Valeur par défaut: None

Retours

Type Description

Dictionnaire de paramètres et de Schedule valeurs.

Remarques

Deux types de YAML sont pris en charge pour les planifications. La première lit et charge les informations de périodicité pour la création de planification pour déclencher le pipeline. La deuxième lit et charge les informations de magasin de données pour planifier la création de pipeline pour déclencher le pipeline.

Exemple de création d’une planification qui envoie un pipeline sur une périodicité, comme suit :


   from azureml.pipeline.core import Schedule

   schedule_info = Schedule.load_yaml(workspace=workspace,
                                      filename='./yaml/test_schedule_with_recurrence.yaml')
   schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
                              experiment_name="helloworld", recurrence=schedule_info.get("recurrence"),
                              description=schedule_info.get("description"))

Exemple de fichier YAML test_schedule_with_recurrence.yaml :


   Schedule:
       description: "Test create with recurrence"
       recurrence:
           frequency: Week # Can be "Minute", "Hour", "Day", "Week", or "Month".
           interval: 1 # how often fires
           start_time: 2019-06-07T10:50:00
           time_zone: UTC
           hours:
           - 1
           minutes:
           - 0
           time_of_day: null
           week_days:
           - Friday
       pipeline_parameters: {'a':1}
       wait_for_provisioning: True
       wait_timeout: 3600
       datastore_name: ~
       polling_interval: ~
       data_path_parameter_name: ~
       continue_on_step_failure: None
       path_on_datastore: ~

Exemple de création d’une planification qui envoie un pipeline sur un magasin de données, comme suit :


   from azureml.pipeline.core import Schedule

   schedule_info = Schedule.load_yaml(workspace=workspace,
                                      filename='./yaml/test_schedule_with_datastore.yaml')
   schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
                              experiment_name="helloworld",datastore=schedule_info.get("datastore_name"),
                              polling_interval=schedule_info.get("polling_interval"),
                              data_path_parameter_name=schedule_info.get("data_path_parameter_name"),
                              continue_on_step_failure=schedule_info.get("continue_on_step_failure"),
                              path_on_datastore=schedule_info.get("path_on_datastore"))

update

Mettez à jour la planification.

update(name=None, description=None, recurrence=None, pipeline_parameters=None, status=None, wait_for_provisioning=False, wait_timeout=3600, datastore=None, polling_interval=None, data_path_parameter_name=None, continue_on_step_failure=None, path_on_datastore=None)

Paramètres

Nom Description
name
str

Nouveau nom de la planification.

Valeur par défaut: None
recurrence

Nouvelle périodicité de planification du pipeline.

Valeur par défaut: None
description
str

Nouvelle description de la planification.

Valeur par défaut: None
pipeline_parameters

Dictionnaire de paramètres pour affecter de nouvelles valeurs {nom param, valeur param}.

Valeur par défaut: None
status
str

Nouvel état de la planification : « Actif » ou « Désactivé ».

Valeur par défaut: None
wait_for_provisioning

Indique s’il faut attendre la fin de l’approvisionnement de la planification.

Valeur par défaut: False
wait_timeout
int

Nombre de secondes à attendre avant l’expiration du délai.

Valeur par défaut: 3600
datastore

Magasin de données à surveiller pour les objets blob modifiés/ajoutés. Remarque : les magasins de données de réseau virtuel ne sont pas pris en charge.

Valeur par défaut: None
polling_interval
int

Durée (en minutes) entre l’interrogation des blobs modifiés/ajoutés. La valeur par défaut est de 5 minutes.

Valeur par défaut: None
data_path_parameter_name
str

Nom du paramètre de pipeline relatif au chemin d’accès des données à définir avec le chemin d’accès des blobs modifiés.

Valeur par défaut: None
continue_on_step_failure

Indique s’il faut poursuivre l’exécution des autres étapes du PipelineRun envoyé si une étape échoue. S’il est fourni, cela remplace le paramètre continue_on_step_failure pour le pipeline.

Valeur par défaut: None
path_on_datastore
str

Optionnel. Chemin d’accès sur le magasin de données à surveiller pour les blobs modifiés/ajoutés. Remarque : le path_on_datastore se trouve sous le conteneur du magasin de données. Par conséquent, le chemin d’accès réel que la planification surveillera sera conteneur/path_on_datastore. S’il n’y en a aucun, le conteneur du magasin de données est surveillé. Les ajouts/modifications apportés dans un sous-dossier de la path_on_datastore ne sont pas surveillés. Uniquement pris en charge pour les planifications dataStore.

Valeur par défaut: None

Attributs

continue_on_step_failure

Obtenez la valeur du continue_on_step_failure paramètre.

Retours

Type Description

Valeur du continue_on_step_failure paramètre

data_path_parameter_name

Obtenez le nom du paramètre de pipeline de chemin d’accès aux données à définir avec le chemin d’accès d’objet blob modifié.

Retours

Type Description
str

Nom du paramètre de chemin d’accès aux données.

datastore_name

Obtenez le nom du magasin de données utilisé pour la planification.

Retours

Type Description
str

Nom du magasin de données.

description

Obtenez la description de la planification.

Retours

Type Description
str

Description de la planification.

id

Obtenez l’ID de la planification.

Retours

Type Description
str

The ID.

name

Obtenez le nom de la planification.

Retours

Type Description
str

Nom.

path_on_datastore

Obtenez le chemin d’accès sur le magasin de données que la planification surveille.

Retours

Type Description
str

Chemin d’accès du magasin de données.

pipeline_endpoint_id

Obtenez l’ID du point de terminaison du pipeline que la planification envoie.

Retours

Type Description
str

The ID.

pipeline_id

Obtenez l’ID du pipeline que la planification envoie.

Retours

Type Description
str

The ID.

polling_interval

Obtenez la durée, en minutes, entre l’interrogation des objets blob modifiés/ajoutés.

Retours

Type Description
int

Intervalle d’interrogation.

recurrence

Obtenez la périodicité de la planification.

Retours

Type Description

Périodicité de la planification.

status

Obtenez l’état de la planification.

Retours

Type Description
str

État de la planification.