检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
产品优势 超强隐私保护 利用可信执行环境TEE承担智能合约运行,安全级别高,结合远程证明,防止合约逻辑被恶意篡改,确保交易结果可信。数据保护根密钥在TEE内保存,防止数据被窃取并破解。隐私数据全程可信,满足金融级的可信。 高吞吐量交易 利用TEE可信执行环境执行共识核心逻辑,通过可信
产品概述 华为云区块链引擎服务(HuaweiCloud Blockchain Service,简称HBS)是华为自主研发的满足企业级和金融级的可信、协调要求的高性能、高安全的区块链技术服务平台,可以帮助企业和开发人员轻松搭建、管理区块链应用。 当前仅“华北-北京四”区域支持华为云区块链引擎服务
区域和可用区 什么是区域、可用区? 区域和可用区用来描述数据中心的位置,您可以在特定的区域、可用区创建资源。 区域(Region):从地理位置和网络时延维度划分,同一个Region内共享弹性计算、块存储、对象存储、VPC网络、弹性公网IP、镜像等公共服务。Region分为通用Region
服务部署 支持在华为云资源部署华为云区块链引擎。 基于华为云资源部署
华为云有没有提供NTP服务器,怎样配置? 有,该NTP服务器仅限于在华为云控制台上购买的弹性云服务器配置使用。 如需在购买的弹性云服务器上配置NTP服务器,您可以选择使用华为云控制台自己提供的NTP服务器,也可以选择其他NTP服务器。配置NTP服务器的操作相同,本节以华为云控制台提供的
最新动态 本文介绍了华为云区块链引擎服务 HBS各特性版本的功能发布和对应的文档动态,欢迎体验。 2021年9月 序号 功能名称 功能描述 阶段 相关文档 1 华为云区块链引擎服务 华为云区块链引擎服务上线,支持服务部署、区块链管理、业务链管理等功能。仅支持“华北-北京四”区域。
在JDBCServer节点上分别创建“/home/data”文件,内容如下: Miranda,32 Karlie,23 Candice,27 确保其对启动JDBCServer的用户有读写权限。
在Beeline/JDBCServer模式下,executor的用户跟driver是一致的,driver是JDBCServer服务的一部分,是由spark用户启动的,因此其用户也是spark用户,且当前无法实现在运行时将Beeline端的用户透传到executor,因此使用非spark
合约开发 概述 Go合约开发 Wasm合约开发(AssemblyScript)
在JDBCServer节点上分别创建“/home/data”文件,内容如下: Miranda,32 Karlie,23 Candice,27 确保其对启动JDBCServer的用户有读写权限。
在Beeline/JDBCServer模式下,executor的用户跟driver是一致的,driver是JDBCServer服务的一部分,是由spark用户启动的,因此其用户也是spark用户,且当前无法实现在运行时将Beeline端的用户透传到executor,因此使用非spark
通过JDBC访问Spark SQL样例程序开发思路 场景说明 用户自定义JDBCServer的客户端,使用JDBC连接来进行表的创建、数据加载、查询和删除。 数据规划 将数据文件上传至HDFS中。 确保以多主实例模式启动了JDBCServer服务,并至少有一个实例可连接客户端。
问题现象: 作业日志报错Read time out,日志如下: 问题排查 确认MRS集群的JdbcServer是多实例模式还是多租模式。 如果是多实例模式,跳转3。 否则跳转2。 多租户模式下,确认其他租户的作业是否正常。
支持在Spark2x的JDBCServer中执行Spark SQL操作Hudi。 不支持在Spark2x的客户端执行Spark SQL操作Hudi,支持在Spark3.1.1及之后版本的客户端执行Spark SQL操作Hudi。
SDK介绍 概述 Java SDK介绍 Go SDK介绍 SDK升级
公开区块链浏览器 使用说明 公开区块链浏览器
约束与限制 限制项 说明 使用区域 只支持“华北-北京四”区域。
概述 合约主要用于操作账本上的数据。作为运行在区块链上的、特定条件下自动执行的代码逻辑,合约是用户利用区块链实现业务逻辑的重要途径,基于区块链特点,合约的运行结果是可信的,其结果是无法被伪造和篡改的。 父主题: 合约开发
spark.ranger.plugin.viewaccesscontrol.enable=true到客户端目录下“Spark2x/spark/conf/spark-defaults.conf”配置文件中,重启JDBCServer实例。
通过JDBC访问Spark SQL样例程序开发思路 场景说明 用户自定义JDBCServer的客户端,使用JDBC连接来进行表的创建、数据加载、查询和删除。 数据规划 将数据文件上传至HDFS中。 确保以多主实例模式启动了JDBCServer服务,并至少有一个实例可连接客户端。