api 命令组

Note

此信息适用于 Databricks CLI 版本 0.205 及更高版本。 The Databricks CLI is in Public Preview.

Databricks CLI use is subject to the Databricks License and Databricks Privacy Notice, including any Usage Data provisions.

The api command group within the Databricks CLI enables you to call any available Databricks REST API.

你应当仅针对高级场景运行 api 命令,例如,Databricks CLI 尚未在相关命令中包装目标 Databricks REST API 的那些特定 Databricks REST API 的预览版。 有关命令组的列表,请参阅 Databricks CLI 命令

databricks api delete

执行 DELETE 请求

databricks api delete PATH [flags]

Arguments

PATH

    API 终结点路径

选项

--json JSON

    内联 JSON 字符串或 @path 包含请求正文的 JSON 文件的 JSON 文件

Global flags

Examples

databricks api delete /api/2.0/jobs/runs/delete --json '{"run_id": 123}'

databricks api get

执行 GET 请求

databricks api get PATH [flags]

Arguments

PATH

    API 终结点路径

选项

--json JSON

    内联 JSON 字符串或 @path 包含请求正文的 JSON 文件的 JSON 文件

Global flags

Examples

以下示例获取工作区中可用群集的列表:

databricks api get /api/2.0/clusters/list

以下示例获取作业:

databricks api get /api/2.0/jobs/get --json '{"job_id": 123}'

databricks api head

执行 HEAD 请求

databricks api head PATH [flags]

Arguments

PATH

    API 终结点路径

选项

--json JSON

    内联 JSON 字符串或 @path 包含请求正文的 JSON 文件的 JSON 文件

Global flags

Examples

databricks api head /api/2.0/clusters/list

databricks api 修补程序

执行 PATCH 请求

databricks api patch PATH [flags]

Arguments

PATH

    API 终结点路径

选项

--json JSON

    内联 JSON 字符串或 @path 包含请求正文的 JSON 文件的 JSON 文件

Global flags

Examples

databricks api patch /api/2.0/jobs/update --json '{"job_id": 123, "new_settings": {"name": "Updated Job"}}'

databricks api post

执行 POST 请求

databricks api post PATH [flags]

Arguments

PATH

    API 终结点路径

选项

--json JSON

    内联 JSON 字符串或 @path 包含请求正文的 JSON 文件的 JSON 文件

Global flags

Examples

以下示例获取有关工作区中指定群集的信息。

databricks api post /api/2.0/clusters/get --json '{
   "cluster_id": "1234-567890-abcde123"
}'

以下示例创建群集:

databricks api post /api/2.0/clusters/create --json '{"cluster_name": "test-cluster", "spark_version": "11.3.x-scala2.12"}'

更新工作区中指定群集的设置。

databricks api post /api/2.0/clusters/edit --json '{
  "cluster_id": "1234-567890-abcde123",
  "cluster_name": "my-changed-cluster",
  "num_workers": 1,
  "spark_version": "11.3.x-scala2.12",
  "node_type_id": "Standard_DS3_v2"
}'

更新工作区中指定群集的设置。 从当前工作目录中名为 edit-cluster.json 的文件获取请求正文。

databricks api post /api/2.0/clusters/edit --json @edit-cluster.json

edit-cluster.json:

{
  "cluster_id": "1234-567890-abcde123",
  "cluster_name": "my-changed-cluster",
  "num_workers": 1,
  "spark_version": "11.3.x-scala2.12",
  "node_type_id": "Standard_DS3_v2"
}

databricks api put

执行 PUT 请求

databricks api put PATH [flags]

Arguments

PATH

    API 终结点路径

选项

--json JSON

    内联 JSON 字符串或 @path 包含请求正文的 JSON 文件的 JSON 文件

Global flags

Examples

databricks api put /api/2.0/workspace/import --json @workspace-import.json

Global flags

--debug

  是否启用调试日志记录。

-h--help

    显示 Databricks CLI、相关命令组或相关命令的帮助。

--log-file 字符串

    一个字符串,表示要将输出日志写入到的文件。 如果未指定此标志,则默认会将输出日志写入到 stderr。

--log-format 格式

    日志格式类型或 textjson。 默认值是 text

--log-level 字符串

    一个表示日志格式级别的字符串。 如果未指定,则禁用日志格式级别。

-o, --output 类型

    命令输出类型或 textjson。 默认值是 text

-p, --profile 字符串

    用于运行命令的文件中配置文件 ~/.databrickscfg 的名称。 如果未指定此标志,则如果存在,则使用命名 DEFAULT 的配置文件。

--progress-format 格式

    显示进度日志的格式: defaultappendinplacejson

-t, --target 字符串

    如果适用,要使用的捆绑包目标