检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
file-size'='128m', 'sink.rolling-policy.rollover-interval'='30 min' ); INSERT into sink_table SELECT * from orders; 示例二 使用datagen随机生成数据写入obs的bucketNa
WITH TIME ZONE N N N Y Y Y Y \ BOOLEAN->NUMBER 结果只会是0/1。 BOOLEAN->VARCHAR 字符结果只会是‘TRUE’/‘FALSE’。 NUMBER -> BOOLEAN 0就是false,非0就是true。 BIG PRECISION
使用相对路径:confPath = userData/kafka-sink.conf @Override public void open(Configuration parameters) throws Exception { super.open(parameters); initConf();
问题现象 DLI上调用“提交SQL作业”API运行超时,报如下错误信息: There are currently no resources tracked in the state, so there is nothing to refresh. 问题根因 API以同步模式调用
String 导出模式,目前支持“ErrorIfExists”,“Overwrite”,不指定“export_mode”则默认为“ErrorIfExists”。 “ErrorIfExists”:存在即报错。指定的导出目录必须不存在,如果指定目录已经存在,系统将返回错误信息,无法执行导出操作。
注意事项 显示与给定正则表达式或函数名匹配的函数。如果未提供正则表达式或名称,则显示所有函数。如果声明了USER或SYSTEM,那么将分别显示用户定义的Spark SQL函数和系统定义的Spark SQL函数。 示例 查看当前的所有函数。 1 SHOW FUNCTIONS; 父主题:
database_name 否 String 数据库名称。 owner 否 String 数据库的创建者。 table_number 否 Integer 数据库中表的个数。 description 否 String 数据库相关的描述信息。 enterprise_project_id 是 String
file-size'='128m', 'sink.rolling-policy.rollover-interval'='30 min' ); INSERT into sink_table SELECT * from orders; 示例2 使用datagen随机生成数据写入obs的bucketNa
响应Body参数 参数 参数类型 描述 error_code String 错误码 error_msg String 失败原因 状态码: 403 表5 响应Body参数 参数 参数类型 描述 error_code String 错误码 error_msg String 失败原因 状态码:
JOB_CU:作业计算单元 IAM_USER:IAM用户数 ELASTIC_RESOURCE_POOL:弹性资源池 min Integer 配额的最小值。 max Integer 配额的最大值。 quota Integer 目前的配额。 used Integer 已用的配额。 状态码: 400
响应Body参数 参数 参数类型 描述 error_code String 错误码。 error_msg String 错误描述信息。 状态码: 500 表6 响应Body参数 参数 参数类型 描述 error_code String 错误码。 error_msg String 失败原因。
SELECT numbers, transform(numbers, n -> n * n) as squared_numbers FROM (VALUES (ARRAY[1, 2]),(ARRAY[3, 4]),(ARRAY[5, 6, 7])) AS t(numbers); numbers
message 否 String 系统提示信息,执行成功时,信息可能为空。 job_id 否 String 作业ID。 job_type 否 String 作业类型,包含DDL、DCL、IMPORT、EXPORT、QUERY、INSERT。 目前仅支持查看“QUERY”类型作业的执行结果。
执行请求是否成功。“true”表示请求执行成功。 message 否 String 系统提示信息,执行成功时,信息可能为空。 connections 否 Array of Objects 跨源连接信息列表,详细信息请参考表4。 count 否 Integer 返回的跨源连接个数。 表4 connections参数
–-file中提交上来的文件的本地路径,即:SparkFiles.get("上传的文件名")。 Driver中的文件路径与Executor中获取的路径位置是不一致的,所以不能将Driver中获取到的路径作为参数传给Executor去执行。 Executor获取文件路径的时候,仍然需要使用SparkFiles
成功返回201。 响应参数 无响应参数。 示例 请求样例: { "cluster_name": "cluster1", "description": "test cluster", "cu_count": 16 } 成功响应样例: None 调用接
显示所有的角色或者显示当前database下绑定到“user_name”的角色。 语法格式 1 SHOW [ALL] ROLES [user_name]; 关键字 ALL:显示所有的角色。 注意事项 ALL关键字与user_name不可同时存在。 示例 显示绑定到该用户的所有角色。
应表时耗时增大,建议对小文件进行合并。 推荐使用临时表进行数据中转 自读自写在突发异常场景下存在数据丢失的风险 执行SQL: INSERT OVERWRITE TABLE tablename select * FROM tablename DISTRIBUTE BY floor(rand()*20)
项目编号,用于资源隔离。获取方式请参考获取项目ID。 表2 Query参数 参数 是否必选 参数类型 描述 limit 否 Integer 每页的数量。默认为100。 name 否 String 通过弹性资源池名称进行模糊匹配。 offset 否 Integer 偏移量。默认为0。 status 否 String
EXISTS orders_by_date AS SELECT orderdate, sum(totalprice) AS price FROM orders GROUP BY orderdate; 用和表orders具有相同schema创建新表empty_orders table,但是没数据: