检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
产生告警的NameService名称。 Trigger condition 系统当前指标取值满足自定义的告警设置条件。 对系统的影响 单副本的数据在节点故障时容易丢失,单副本的文件过多会对HDFS文件系统的安全性造成影响。 可能原因 DataNode节点故障。 磁盘故障。 单副本写入文件。
设置HBase和HDFS的句柄数限制 联系集群管理员增加各用户的句柄数。该配置为操作系统的配置,并非HBase或者HDFS的配置。建议集群管理员根据HBase和HDFS的业务量及各操作系统用户的权限进行句柄数设置。如果某一个用户需对业务量很大的HDFS进行很频繁且很多的操作,
使用oracle-partition-connector时,要求给连接用户赋予如下系统表的select权限:dba_objects、dba_extents。 Loader数据导出简介 Loader支持将数据或者文件从MRS系统中导出到关系型数据库或文件系统中,Loader支持如下数据导出方式: 从HDFS/OBS中导出数据到SFTP服务器
0版本中的所有特性,详情请参见https://cwiki.apache.org/confluence/display/hive/languagemanual。 MRS系统提供的扩展Hive语句如表1所示。 表1 扩展Hive语句 扩展语法 语法说明 语法示例 示例说明 CREATE [TEMPORARY] [EXTERNAL]
@Override public Processor<String, String> get() { return new Processor<String, String>() { // ProcessorContext实例
0版本中的所有特性,详情请参见https://cwiki.apache.org/confluence/display/hive/languagemanual。 系统提供的扩展Hive语句如表1所示。 表1 扩展Hive语句 扩展语法 语法说明 语法示例 示例说明 CREATE [TEMPORARY] [EXTERNAL]
public String map(String s) throws Exception { return "Flink says " + s + System.getProperty("line.separator");
MEM”参数设置内存。 示例 在执行spark wordcount计算中。1.6T数据,250个executor。 在默认参数下执行失败,出现Futures timed out和OOM错误。 因为数据量大,task数多,而wordcount每个task都比较小,完成速度快。当task数多时
WordCountBolt(), 12).fieldsGrouping("split", new Fields("word")); return builder; } 如果拓扑开启了ack,推荐acker的数量不大于所设置的worker数量。 父主题: 开发Storm应用
*/ { /* 958 */ if (!isSecurityEnabled()) { /* 959 */ return; /* */ } ...... 分析“isSecurityEnabled()”,发现是否要发起认证,还需要判断con
} catch (IOException e) { e.printStackTrace(); } return flag; } relogin的代码样例: public Boolean relogin(){ boolean
关于磁盘加密更多介绍请参考云硬盘加密。 关于数据加密服务更多介绍请参考什么是数据加密服务。 开启系统盘加密时,需配置以下参数: 系统盘密钥ID:已选择的密钥名称对应的密钥ID信息。 系统盘密钥名称:选择用来加密系统盘的密钥名称,默认选择密钥名称为“evs/default”的默认主密钥,在下拉框中可以选择其他用户主密钥。
ALM-27007 数据库进入只读模式 告警解释 系统每30秒周期性检查DBServer主节点的数据目录磁盘空间使用率,当数据目录磁盘空间使用率超过90%时,系统将产生此告警。 当数据目录磁盘空间使用率低于80%时,此告警恢复。 告警属性 告警ID 告警级别 是否自动清除 27007
更新MRS集群节点omm用户ssh密钥 操作场景 在安装集群时,系统将自动为omm用户生成ssh认证私钥和公钥,用来建立节点间的互信。在集群安装成功后,如果原始私钥不慎意外泄露或者需要使用新的密钥时,系统管理员可以通过以下操作手动更改密钥值。 约束与限制 该章节仅适用于MRS 3
public String map(String s) throws Exception { return "Flink says " + s + System.getProperty("line.separator");
@Override public Processor<String, String> get() { return new Processor<String, String>() { // ProcessorContext实例
WordCountBolt(), 12).fieldsGrouping("split", new Fields("word")); return builder; } 如果拓扑开启了ack,推荐acker的数量不大于所设置的worker数量。 父主题: 开发Storm应用
TEXTFILE类型文件使用ARC4压缩时查询结果乱码 Hive任务运行过程中失败,重试成功 执行select语句时报错“Execution Error return code 2” 有大量分区时执行drop partition操作失败 执行join操作时localtask启动失败 beeline客户端报错“Failed
查询执行时间,单位为ms。 scan_bytes bigint 查询总共扫描的字节数。 scan_rows bigint 查询总共扫描的行数。 return_rows bigint 查询结果返回的行数。 stmt_id int 自增ID。 is_query tinyint 是否为查询语句。 1:表示是查询语句。
length; i++) if (a[i] != null) total += a[i]; return total; } } 将以上样例程序打包成“AddDoublesUDF.jar”(具体操作请参见Hive开发指南)。 步骤二:创建执行UDF函数的用户