检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
class MyProcessorSupplier implements ProcessorSupplier<String, String> { @Override public Processor<String, String> get() { return
代码认证 try { init(); login(); } catch (IOException e) { LOG.error("Failed to login because ", e); return; } 初始化配置 private static
MetaStore实例的健康状态为unknown HiveServer或者MetaStore实例的健康状态为Concerning TEXTFILE类型文件使用ARC4压缩时查询结果乱码 Hive任务运行过程中失败,重试成功 执行select语句时报错“Execution Error return
Shell 提供shell命令完成HDFS文件系统的基本操作。 HTTP REST API 提供除Shell、Java API和C API以外的其他接口,可通过此接口监控HDFS状态等信息。 WEB UI 提供Web可视化组件管理界面。
if (args.length < 2) { System.out.println("HBaseBulkPutTimestampExample {tableName} {columnFamily} are missing an argument") return
ClickHouse系统表日志过大,如何添加定期删除策略? 问题现象 客户使用ClickHouse,系统表产生的日志过大,一次性删除会耗费较长时间,客户可以添加定期删除策略,即添加TTL。
处理步骤 对系统进行扩容。 打开FusionInsight Manager页面,在告警列表中,单击此告警所在行的,查看该告警的主机地址。 以root用户登录告警所在主机,用户密码为安装前用户自定义,请咨询系统管理员。 若内存使用率超过阈值,对内存进行扩容。
CarbonData将数据源集成到Spark生态系统,用户可使用Spark SQL执行数据查询和分析。也可以使用Spark提供的第三方工具JDBCServer连接到Spark SQL。
配置基于HTTPS/HTTP协议的REST接口 配置Hive Transform功能开关 切换Hive执行引擎为Tez Hive负载均衡 配置Hive单表动态视图的访问控制权限 配置创建临时函数的用户不需要具有ADMIN权限 配置具备表select权限的用户可查看表结构 配置仅Hive管理员用户能创建库和在
登录MRS Manager系统。 选择“服务管理 > 下载客户端 ”,下载“完整客户端”到“远端主机”上,即下载客户端程序到新申请的弹性云服务器上。 以root用户安装集群客户端。 执行以下命令解压客户端包。
单击“流表管理”进入流表管理页面。 单击“新建流表”,在新建流表页面参考表1填写信息,单击“确定”,完成流表创建。创建完成后,可在对应流表的“操作”列对流表进行编辑、删除等操作。 图1 新建流表 表1 新建流表信息 参数名称 参数描述 备注 流/表名称 流/表的名称。
spark-shell执行SQL跨文件系统load数据到Hive表失败 用户问题 使用spark-shell命令执行SQL或者spark-submit提交的Spark任务里面有SQL的load命令,并且原数据和目标表存储位置不是同一套文件系统,上述两种方式MapReduce任务启动时会报错
否,表示当前本服务已启用Ranger鉴权插件,可通过Ranger管理界面配置访问该服务资源的权限策略。 如果不存在该选项,则表示当前服务不支持Ranger鉴权插件,未开启Ranger鉴权。 父主题: Ranger常见问题
否,表示当前本服务已启用Ranger鉴权插件,可通过Ranger管理界面配置访问该服务资源的权限策略。 若不存在该选项,则表示当前服务不支持Ranger鉴权插件,未开启Ranger鉴权。 父主题: Ranger常见问题
main(String[] args) throws IOException{ if (args.length < 1) { System.out.println("JavaHBaseBulkGetExample {tableName}"); return
throws IOException { if (args.length < 1) { System.out.println("JavaHBaseForEachPartitionExample {tableName} {columnFamily}"); return
if (args.length < 2) { System.out.println("HBaseBulkPutTimestampExample {tableName} {columnFamily} are missing an argument") return
args) throws IOException{ if (args.length < 2) { System.out.println("JavaHBaseBulkLoadExample {outputPath} {tableName}"); return
source bigdata_env 如果当前集群已启用Kerberos认证,执行以下命令认证当前用户,当前用户需要具有创建HBase表的权限,具体请参见角色管理配置拥有对应权限的角色,参考创建用户章节,为用户绑定对应角色。
在Linux系统HDFS客户端使用命令hdfs dfs -mkdir /tmp/input 在Linux系统HDFS客户端使用命令hdfs dfs -put local_filepath /tmp/input 开发思路 统计日志文件中本周末网购停留总时间超过2个小时的女性网民信息。