检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
public void merge(WeightedAvgAccum acc, Iterable<WeightedAvgAccum> it) { Iterator<WeightedAvgAccum> iter = it.iterator(); while
实例。 MRS Kafka开启Kerberos认证,未开启SSL认证时,创建Kerberos类型的认证。建表时通过krb_auth_name关联跨源认证。 MRS Kafka开启Kerberos认证,同时开启了SSL认证时,需要同时创建Kerberos和Kafka_SSL类型的认
return if result_set.row_count == 0: return for row in result_set: print(row) # export the query result
EXTENDED:显示扩展使用信息。 注意事项 返回已有函数的元数据(实现类和用法),如果函数不存在,则系统报错。 示例 查看函数mergeBill的相关信息。 1 DESCRIBE FUNCTION mergeBill; 父主题: 自定义函数
public void merge(WeightedAvgAccum acc, Iterable<WeightedAvgAccum> it) { Iterator<WeightedAvgAccum> iter = it.iterator(); while (iter.hasNext())
系统提示信息,执行成功时,信息可能为空。 请求示例 修改数据库中表的owner为scuser1。 { "new_owner":"scuser1" } 响应示例 { "is_success": true, "message": "" } 状态码 状态码如表4所示。 表4 状态码 状态码 描述 200
catch”异常捕获,否则可能会造成包冲突,导致函数功能异常。 环境准备 在进行UDF开发前,请准备以下开发环境。 表1 UDF开发环境 准备项 说明 操作系统 Windows系统,支持Windows7以上版本。 安装JDK JDK使用1.8版本。 安装和配置IntelliJ IDEA IntelliJ I
是否返回收费信息。 page-size 否 Integer 每页显示的最大结果行数,默认值Integer.MAX_VALUE(也即不分页)。 current-page 否 Integer 当前页码,默认为第一页。 order 否 String 指定队列排序方式。 默认为queue
feature="basic", # 作业特性。表示用户作业使用的Flink镜像类型。basic:表示使用DLI提供的基础Flink镜像。 flink_version="1.12", # Flink版本。当用户设置“feature”为“basic”
driverCores:2; executorCores:1; driverMemory:7G; executorMemory:4G; numExecutor:6。 B:物理资源:16核64G内存 driverCores:2; executorCores:2; driverMemory:7G;
function ,需要指定一个 identifier ,可指定 language tag 。 若catalog 中,已经有同名的函数注册了,则无法注册。如果 language tag 是 JAVA 或者 SCALA ,则 identifier 是 UDF 实现类的全限定名。 如果您需要
执行请求是否成功。“true”表示请求执行成功。 message 否 String 系统提示信息,执行成功时,信息可能为空。 请求示例 修改程序包的组名为groupName,用户名为scuser1。 { "new_owner": "scuser1", "group_name": "groupName"
'[log_file_path_pattern]', merge => '[merge]', limit => [limit]) 参数描述 表1 参数描述 参数 描述 是否必填 table 需要查询表的表名,支持database.tablename格式 是 log_file_path_pattern log file的路径,支持正则匹配
功: ALTER TABLE table_name SET TBLPROPERTIES ( 'delta.columnMapping.mode' = 'name', 'delta.minReaderVersion' = '2', 'delta.minWriterVersion' =
user: 如果已经有该用户启动的Spark Driver并且该Driver还能继续提交任务,那么新的SQL作业会提交到这个已存在的Driver上执行。 如果没有已存在的Driver或者现有Driver无法继续提交任务,则会为该用户新启动一个Spark Driver。 适用于同一用户的多个作业需要共享资源的场景。
待删除列,可以指定多个。 示例 ALTER TABLE table1 DROP COLUMN a.b.c ALTER TABLE table1 DROP COLUMNS a.b.c, x, y a.b.c 表示嵌套列全路径,嵌套列具体规则见ADD COLUMNS。 系统响应 通过运行DESCRIBE命令,可查看删除列。
当前接口已废弃,不推荐使用。 调试 您可以在API Explorer中调试该接口。 URI URI格式: GET /v1.0/{project_id}/databases/{database_name}/tables/{table_name}/users/{user_name} 参数说明 表1 URI 参数
包周期弹性资源池规格变更。 调试 您可以在API Explorer中调试该接口,支持自动认证鉴权。API Explorer可以自动生成SDK代码示例,并提供SDK代码示例调试功能。 URI POST /v3/{project_id}/orders/elastic-resource-pools/
参数类型 说明 properties 否 object 待更新队列属性。请参考表3。 表3 properties参数说明 参数名称 是否必选 参数类型 说明 computeEngine.maxInstance 否 integer 队列能启动的最大spark driver数量。 job.maxConcurrent
DROP CONSTRAINT所需权限列表 权限描述 表的ALTER权限 细粒度权限:dli:table:alter。 由LakeFormation提供的元数据服务,权限配置详见LakeFormation文档。 示例 alter table delta_table0 drop constraint