检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
多个前缀之间用英文逗号分隔。 列举方式 说明: 全量迁移和前缀迁移时选择 串行列举 源端非并行文件系统(PFS)桶的默认列举方式。 并行列举 源端并行文件系统(PFS)桶的默认列举方式,非并行文件系统(PFS)桶选择该列举形式可能会导致列举性能降低。 并发子任务数 - 用户自定义。配置的数
选择完成准备工作时,在MgC Agent侧添加的华为云(AK/SK)凭证。如果所选凭证与登录迁移中心账号凭证相同,请勾选“所选凭证与登录迁移中心凭证相同”,系统将根据所选的区域,自动查询账号在该区域下的项目。 区域(Region)ID 选择目的端DLI所在区域。如果未勾选“所选凭证与登录迁移中心凭
se。 数据库链接 填写连接源端ClickHouse集群的外网地址。可以在集群信息页面,查看外网地址。 参数配置完成后,单击“测试连接”,系统会校验配置信息并与云服务建立连接,测试通过代表与云服务连接成功。 测试连接通过后,单击“确认”按钮,创建云服务连接完成。 在连接管理页面,
勾选“仅显示适合专属主机规格族”,则只能选择在购买区域所选Region下专属主机所包含的规格,并且虚拟机类型偏好将无法选择。 系统盘规格偏好(可选) 选择期望的目的端系统盘规格类型。 数据盘规格偏好(可选) 选择期望的目的端数据盘规格类型。 虚拟机规格调整 选择主机性能规格的推荐策略。
选择文件存储批量迁移模板,单击“查看步骤详情”,可以查看该模板所包含的迁移阶段和步骤,以及每个阶段和步骤的详细描述。其中,步骤类型为“自动”,表示该步由系统自动完成。单击“开始配置”按钮,进行工作流配置。 在基础信息区域,输入自定义的工作流名称和描述。 在迁移方案区域,选择创建的文件存储迁移方
检查是否已开放MgC Agent(原Edge)需要的端口,所需端口请查看通信矩阵。 安全组的出方向规则中,需要包含8883端口。 操作系统为:CentOS 8。 推荐规格不小于4U8G。如果使用大数据相关功能,推荐规格不小于8U16G。 安装MgC Agent的磁盘预留可用空间不小于20
path参数为必填项。 模板参数填写完成并保存后,单击导入窗口的“添加文件”按钮,将填写后的模板文件上传。 上传成功后,单击“确认”按钮,系统开始导入,并且会在任务实例管理页签中的任务实例列表中,新增一条导入数据表的任务实例记录。您可以通过任务实例查看导入状态。 父主题: 采集元数据
path参数为必填项。 模板参数填写完成并保存后,单击导入窗口的“添加文件”按钮,将填写后的模板文件上传。 上传成功后,单击“确认”按钮,系统开始导入,并且会在任务实例管理页签中的任务实例列表中,新增一条导入数据表的任务实例记录。您可以通过任务实例查看导入状态。 父主题: 采集元数据
中而导致内存溢出(OOM)。因此,使用MySQL作为元数据仓可以有效地解决这一问题。 不启用:系统通过MetaStore查询Hive表的分区信息。 启用:配置MySQL作为元数据仓,系统将通过MySQL查询Hive表的分区信息。启用后,需要配置如下参数: 元仓类型:目前仅支持MySQL作为元数据仓。
dictionary。 鉴于网络等环境限制,可能存在采集失败问题,可通过重新启动采集器解决。 “select any dictionary”是一种系统权限,它允许用户查询数据库中的所有数据字典。 数据字典是存储有关数据库结构信息的中央存储库,包括表、列、数据类型、约束等详细信息。 目前只支持在线采集,无离线采集器。
多个前缀之间用英文逗号分隔。 列举方式 说明: 全量迁移和前缀迁移时选择 串行列举 源端非并行文件系统(PFS)桶的默认列举方式。 并行列举 源端并行文件系统(PFS)桶的默认列举方式,非并行文件系统(PFS)桶选择该列举形式可能会导致列举性能降低。 并发子任务数 - 用户自定义。配置的数
员权限的用户名,如root。 ip:该字段表示源端主机的内网IP地址。 port:该字段表示SSH服务监听的端口号。默认情况下,Linux系统使用端口22。如果源端主机的SSH服务运行在自定义端口上,请在此处指定正确的端口号。 password:该字段表示登录源端主机时所需的密码
模板参数填写完成并保存后,单击窗口的“添加文件”,将填写后的模板文件上传至迁移中心。 文件大小不能超过50 MB。 单击“确认”,创建血缘采集任务完成。系统自动开始进行血缘采集。在大数据血缘分析页签,单击血缘采集任务名称或操作列的“查看”,可以查看任务详情页面。 当任务状态为“已完成”时,单击
配置文件 配置文件格式必须为.json文件或.yml文件。 添加凭证 如果未连接迁移中心,添加的凭证可以用于本地资源深度采集;如果连接了迁移中心,系统会自动将添加的凭证同步至迁移中心。 登录MgC Agent控制台。 在左侧导航树选择“凭证管理”,进入凭证列表页面。 单击列表上方的“创建凭证”按钮,弹出创建凭证窗口。
和DLI服务的只读权限(ReadOnly)。 如果所选凭证与登录迁移中心 MgC的账号凭证相同,请勾选“所选凭证与登录迁移中心凭证相同”,系统将根据所选的区域,自动查询账号在该区域下的项目。 区域:选择需要校验的数据所在区域/项目。 项目:选择需要校验的数据所在项目。 集群ID:输入需要校验的数据所在集群ID。
和DLI服务的只读权限(ReadOnly)。 如果所选凭证与登录迁移中心 MgC的账号凭证相同,请勾选“所选凭证与登录迁移中心凭证相同”,系统将根据所选的区域,自动查询账号在该区域下的项目。 区域:选择需要校验的数据所在区域/项目。 项目:选择需要校验的数据所在项目。 集群ID:输入需要校验的数据所在集群ID。
口。 根据表1,配置参数。 表1 添加资源参数说明 参数 说明 资源名称 支持用户自定义。 资源类型 支持下拉框选择:SERVER。 操作系统 Windows。 Linux。 接入方式 输入接入IP,资源的公网IP或私网IP,MgC-Agent将通过该IP进行远程连接,采集资源数据。
步骤1:对应用进行分析 更多 访问外网 应用容器化改造介绍 应用容器化改造流程 步骤1:对应用进行分析 步骤2:准备应用运行环境 更多 操作系统相关 应用容器化改造介绍 应用容器化改造流程 步骤1:对应用进行分析 步骤2:准备应用运行环境 步骤2:准备应用运行环境 步骤2:准备应用运行环境
1白名单 使用该功能前,请联系技术支持人员,将您添加到spark 3.3.1版本的白名单中。 配置DLI作业桶 需要购买一个OBS桶或并行文件系统并设置为DLI作业桶,该桶用于存储DLI作业运行过程中产生的临时数据。方法请参考配置DLI作业桶。 操作步骤 登录迁移中心控制台。 在左侧
在执行Hive数据的日级别增量、小时级增量以及指定日期的校验时,如果分区字段为date类型,且分区值的格式不是标准的YYYY-MM-DD时,系统目前不支持对这种场景进行数据校验。 HBase(包括云HBase、EMR-HBase、MRS-HBase、CT-HBase等)校验任务仅支