DatabricksCompute 类
在 Azure 机器学习中管理 Databricks 计算目标。
Azure Databricks 是 Azure 云中基于 Apache Spark 的环境。 它可以用作 Azure 机器学习管道的计算目标。 有关详细信息,请参阅 什么是 Azure 机器学习中的计算目标?
类 ComputeTarget 构造函数。
检索与提供的工作区关联的计算对象的云表示形式。 返回与检索的计算对象的特定类型对应的子类的实例。
构造函数
DatabricksCompute(workspace, name)
参数
名称 | 说明 |
---|---|
workspace
必需
|
包含要检索的 DatabricksCompute 对象的工作区对象。 |
name
必需
|
要检索的 DatabricksCompute 对象的名称。 |
workspace
必需
|
包含要检索的 Compute 对象的工作区对象。 |
name
必需
|
要检索的 Compute 对象的名称。 |
注解
以下示例演示如何将 Azure Databricks 附加为计算目标。
# Replace with your account info before running.
db_compute_name=os.getenv("DATABRICKS_COMPUTE_NAME", "<my-databricks-compute-name>") # Databricks compute name
db_resource_group=os.getenv("DATABRICKS_RESOURCE_GROUP", "<my-db-resource-group>") # Databricks resource group
db_workspace_name=os.getenv("DATABRICKS_WORKSPACE_NAME", "<my-db-workspace-name>") # Databricks workspace name
db_access_token=os.getenv("DATABRICKS_ACCESS_TOKEN", "<my-access-token>") # Databricks access token
try:
databricks_compute = DatabricksCompute(workspace=ws, name=db_compute_name)
print('Compute target {} already exists'.format(db_compute_name))
except ComputeTargetException:
print('Compute not found, will use below parameters to attach new one')
print('db_compute_name {}'.format(db_compute_name))
print('db_resource_group {}'.format(db_resource_group))
print('db_workspace_name {}'.format(db_workspace_name))
print('db_access_token {}'.format(db_access_token))
config = DatabricksCompute.attach_configuration(
resource_group = db_resource_group,
workspace_name = db_workspace_name,
access_token= db_access_token)
databricks_compute=ComputeTarget.attach(ws, db_compute_name, config)
databricks_compute.wait_for_completion(True)
方法
attach |
荒废的。 请改用该方法 将现有的 Databricks 计算资源与提供的工作区相关联。 |
attach_configuration |
创建用于附加 Databricks 计算目标的配置对象。 |
delete |
DatabricksCompute 对象不支持删除。 请改用 detach。 |
deserialize |
将 JSON 对象转换为 DatabricksCompute 对象。 |
detach |
从其关联的工作区中分离 Databricks 对象。 基础云对象不会被删除,只会删除关联。 |
get_credentials |
检索 Databricks 目标的凭据。 |
refresh_state |
对对象的属性执行就地更新。 此方法根据相应云对象的当前状态更新属性。 这主要用于手动轮询计算状态。 |
serialize |
将此 DatabricksCompute 对象转换为 JSON 序列化字典。 |
attach
荒废的。 请改用该方法 attach_configuration
。
将现有的 Databricks 计算资源与提供的工作区相关联。
static attach(workspace, name, resource_id, access_token)
参数
名称 | 说明 |
---|---|
workspace
必需
|
要与计算资源关联的工作区对象。 |
name
必需
|
要与提供的工作区中的计算资源关联的名称。 不必与要附加的计算资源的名称匹配。 |
resource_id
必需
|
要附加的计算资源的 Azure 资源 ID。 |
access_token
必需
|
要附加的资源的访问令牌。 |
返回
类型 | 说明 |
---|---|
计算对象的 DatabricksCompute 对象表示形式。 |
例外
类型 | 说明 |
---|---|
attach_configuration
创建用于附加 Databricks 计算目标的配置对象。
static attach_configuration(resource_group=None, workspace_name=None, resource_id=None, access_token='')
参数
名称 | 说明 |
---|---|
resource_group
|
Databricks 所在的资源组的名称。 默认值: None
|
workspace_name
|
Databricks 工作区名称。 默认值: None
|
resource_id
|
要附加的计算资源的 Azure 资源 ID。 默认值: None
|
access_token
必需
|
要附加的计算资源的访问令牌。 |
返回
类型 | 说明 |
---|---|
附加计算对象时要使用的配置对象。 |
delete
deserialize
将 JSON 对象转换为 DatabricksCompute 对象。
static deserialize(workspace, object_dict)
参数
名称 | 说明 |
---|---|
workspace
必需
|
DatabricksCompute 对象与之关联的工作区对象。 |
object_dict
必需
|
要转换为 DatabricksCompute 对象的 JSON 对象。 |
返回
类型 | 说明 |
---|---|
提供的 JSON 对象的 DatabricksCompute 表示形式。 |
例外
类型 | 说明 |
---|---|
注解
如果提供的工作区不是计算与之关联的工作区,则引发该 ComputeTargetException 工作区。
detach
get_credentials
检索 Databricks 目标的凭据。
get_credentials()
返回
类型 | 说明 |
---|---|
Databricks 目标的凭据。 |
例外
类型 | 说明 |
---|---|
refresh_state
对对象的属性执行就地更新。
此方法根据相应云对象的当前状态更新属性。 这主要用于手动轮询计算状态。
refresh_state()