检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
cd {客户端安装目录} kinit {用于认证的业务用户} 在Linux系统HDFS客户端使用命令hadoop fs -mkdir /data(hdfs dfs命令有同样的作用),创建对应目录。
<系统域名>@<系统域名>;user.principal=sparkuser;user.keytab=/opt/FIclient/user.keytab;" val config: Configuration = new Configuration() config.addResource
登录FusionInsight Manager系统,具体请参见访问FusionInsight Manager(MRS 3.x及之后版本)。 选择“集群 > 待操作集群名称 > 服务 > Loader”。
默认使用操作系统的换行符。 string 否 \n 输出字段 配置输出信息: 位置:配置输出字段的位置。 字段名:配置输出字段的字段名。 类型:配置字段类型,字段类型为“DATE”或“TIME”或“TimeStamp”时,需指定特定时间格式,其他类型指定无效。
命令中如果携带认证密码信息可能存在安全风险,在执行命令前建议关闭系统的history命令记录功能,避免信息泄露。 gsql -p 20051 -d hivemeta -U username -W password 执行如下命令修改限制。
数据源为文件系统,该参数才有效。用户如果需增量导入数据建议设置该参数。 例如设置为“.txt”,源文件为“test-loader.csv”,则导出后源文件名为“test-loader.csv.txt”。
columncarbonTable1 where column1 IN (select column11 from sourceTable2 where column1 = 'xxx'); 示例5: delete from columncarbonTable1 where column2 >= 4; 系统响应
当指定可选参数IF NOT EXISTS时,如果系统已经存在同名的schema,将不会报错。 Schema默认路径为hdfs://hacluster/user/hive/warehouse/。
在Windows操作系统中打开此类CSV文件时,可能会发生CSV注入。
Prinical,示例如下: Client { com.sun.security.auth.module.Krb5LoginModule required useKeyTab=true keyTab = "{LocalPath}/user.keytab" principal="super@<系统域名
“taskmanager.network.netty.sendReceiveBufferSize”:默认是系统缓冲区大小(cat /proc/sys/net/ipv4/tcp_[rw]mem) ,一般为4MB,表示netty的发送和接收的缓冲区大小。
= '2021-08-28'", order => 'id'); 注意事项 table与path参数必须存在一个,否则无法判断需要执行clustering的表 如果需要对指定分区进行clustering,参考格式:predicate => "dt = '2021-08-28'" 系统响应
对系统的影响 ZooKeeper服务端开启SSL通道加密传输后,将导致一定程度的性能下降。 ZooKeeper服务端开启SSL通道加密传输,需重启ZooKeeper组件以及上层依赖组件,期间将导致服务不可用。 ZooKeeper服务端开启SSL通道加密传输,需重新下载客户端。
productNameIndexTable ON productdb2.productSalesTable; explain select * from productdb2.productSalesTable where c = 'aaa'; //可以发现该查询命令使用了索引表 系统响应
(3,'c','cc'); create table carbon02(a int,b string,c string) stored as carbondata; INSERT INTO carbon02 select * from carbon01 where a > 1; 系统响应
对系统的影响 转换前,需要修改TimelineServer的服务端参数“TLS_FLOAT_IP”为一个可用的浮动IP(单实例时该配置默认使用节点业务IP)。 转换过程中,依赖TimelineServer角色会出现配置过期,需要重启配置过期的实例。
通过API提交Spark作业后作业状态为error MRS集群反复上报43006告警 在spark-beeline中创建或删除表失败 集群外节点提交Spark作业时报错无法连接Driver 运行Spark任务发现大量shuffle结果丢失 spark-shell执行SQL跨文件系统
ClickHouse系统表日志过大时如何添加定期删除策略? 如何修改ClickHouse服务时区?
Trigger Condition 系统当前指标取值满足自定义的告警设置条件。 对系统的影响 应用任务结束时间变长。 新应用提交后长时间无法运行。 可能原因 告警上报机制需要调整。(仅适用于MRS 3.3.1及之后版本 ) NodeManager节点资源过小。
实际域名可登录FusionInsight Manager,选择“系统 > 权限 > 域和互信 > 本端域” 查看。 先使用kinit命令获取kerberos认证的缓存。