检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
在完成预测之后,建议关闭服务,以免产生不必要的计费。 停止运行服务 预测完成后,单击页面右上角的“停止”,即可停止该服务。 单击左上角返回在线服务,在对应的服务名称所在行,单击选择操作列的“更多>停止”,停止该服务。 图7 停止服务 清除OBS中的数据。 在控制台左侧导航栏的服务列表,选择“
在完成预测之后,建议关闭服务,以免产生不必要的计费。 停止运行服务 预测完成后,单击页面右上角的“停止”,即可停止该服务。 单击左上角返回在线服务,在对应的服务名称所在行,单击选择操作列的“更多>停止”,停止该服务。 图7 停止服务 清除OBS中的数据。 在控制台左侧导航栏的服务列表,选择“
objects 参数解释:服务器私有IP信息。 image ServerImageResponse object 参数解释:服务器镜像信息。 category String 参数解释:服务器归属类型。 取值范围: HPS:超节点服务器 SPOD:整柜服务器 SERVER:单台服务器 server_hps
准备镜像主机 准备一台Linux x86_64架构的主机,操作系统使用ubuntu-18.04。您可以准备相同规格的弹性云服务器ECS或者应用本地已有的主机进行自定义镜像的制作。 购买ECS服务器的具体操作请参考购买并登录Linux弹性云服务器。“CPU架构”选择“x86计算”,“镜像”选择“公共镜像”,推荐使用Ubuntu18
开启“节点高级配置”开关后,支持设置实例的操作系统。 存储配置 资源池类型为“物理资源池”时,支持开启“存储配置”开关。 系统盘 打开“存储配置”开关后,可以看到每个实例默认自带的系统盘的磁盘类型、大小或数量。 部分规格没有携带系统盘,在创建专属资源池时支持设置系统盘的磁盘类型和大小。 容器盘
预置框架启动文件的启动流程说明 ModelArts Standard训练服务为用户预置了多种主流AI框架,并针对不同框架的特点进行了专门的适配优化。在使用这些预置框架进行模型训练时,用户需要根据所选框架的特点,相应地调整训练启动命令,以确保训练任务能够顺利执行。 ModelArt
# For CogVideoX-2B Turn to False and For CogVideoX-5B Turn to True fp16: enabled: True # For CogVideoX-2B Turn to True and For CogVideoX-5B
Cluster资源购买,熟悉集群资源开通流程,再开始操作购买Cluster资源。购买过程中请关注以下关键点: 创建CCE集群时,推荐使用CCE Turbo 集群,集群版本v1.31,控制节点架构使用鲲鹏,插件配置不勾选Volcano调度器。 在ModelArts控制台购买AI专属集群,“资源管理”页签选择“轻量算力集群
准备镜像主机 准备一台Linux x86_64架构的主机,操作系统使用ubuntu-18.04。您可以准备相同规格的弹性云服务器ECS或者应用本地已有的主机进行自定义镜像的制作。 购买ECS服务器的具体操作请参考购买并登录Linux弹性云服务器。“CPU架构”选择“x86计算”,“镜像”选择“公共镜像”,推荐使用Ubuntu18
VS Code Toolkit功能介绍 AI开发流程 02:33 AI开发流程科普视频 特性讲解 昇腾云服务介绍 03:55 了解什么是昇腾云服务 ModelArts训练容错检查功能介绍 04:48 了解什么是训练作业容错检查功能 ModelArts高可用冗余节点功能介绍 03:07
可直接参考接口说明,执行OBS管理、作业管理、模型管理和服务管理等操作。 ModelArts SDK支持在本地安装配置使用。使用时,需进行Session鉴权。 本地安装SDK。如果本地未安装SDK,可参考(可选)本地服务器安装ModelArts SDK安装;如果本地已安装,则无需再次安装。
开启超节点HCCL通信算子级重执行机制 场景描述 针对Snt9B23超节点下光模块故障率高的问题,通过在HCCL通信算子级引入重执行机制,提升系统的稳定性和可靠性。 HCCL(Huawei Collective Communication Library,华为集合通信库)是华为专为昇
接训练速度会比较慢,通常会先将数据拉取到本地cache,然后再进行训练任务。 静态挂载 动态挂载 SFS Turbo 适用于海量小文件业务场景。 提供posix协议的文件系统; 需要和资源池在同一个VPC下或VPC互通; 价格较高。 静态挂载 动态挂载:不支持 SFS 适用于多读多写场景的持久化存储。
Error截图 图2 选不到Kernel 原因分析 用户误操作引起的。 解决方案 打开Terminal窗口,执行以下命令启动kernelgateway服务。 API_TYPE=kernel_gateway.jupyter_websocket LOG_DIR="/home/ma-user/log"
开发环境GPU规格使用时长(单张Pnt1为统计基础单元) 默认无限制,支持设置1~60000。 分钟 推理服务CPU规格使用时长(单节点为统计基础单元) 默认无限制,支持设置1~60000。 分钟 推理服务GPU规格使用时长(单节点为统计基础单元) 默认无限制,支持设置1~60000。 分钟 训练作业CPU规格训练核数
Cluster资源购买,熟悉集群资源开通流程,再开始操作购买Cluster资源。购买过程中请关注以下关键点: 创建CCE集群时,推荐使用CCE Turbo 集群,集群版本v1.31,控制节点架构使用鲲鹏,插件配置不勾选Volcano调度器。 在ModelArts控制台购买AI专属集群,“资源管理”页签选择“轻量算力集群
ModelArts的API或SDK支持模型下载到本地吗? ModelArts的API和SDK不支持模型下载到本地,但训练作业输出的模型是存放在对象存储服务(OBS)里面的,您可以通过OBS的API或SDK下载存储在OBS中的文件,具体请参见从OBS下载文件。 父主题: API/SDK
运行完成的工作流会自动部署为相应的在线服务,您只需要在相应的服务详情页面进行预测即可。 在服务部署节点单击“实例详情”直接跳转进入在线服务详情页,或者在ModelArts管理控制台,选择“模型部署 > 在线服务”,单击生成的在线服务名称,即可进入在线服务详情页。 在服务详情页,选择“预测”页签。
本文使用MaaS的免费Token额度,当免费Token额度用完后,您也可以开通付费服务或付费部署为我的服务使用。更多信息,请参见计费说明,在MaaS预置服务中开通商用服务和使用MaaS部署模型服务。 前提条件 已注册华为云账号,并进行实名认证。具体操作,请参见注册华为账号并开通华为云和实名认证。
准备预测分析数据 使用ModelArts自动学习构建预测分析模型时,您需要将数据上传至对象存储服务(OBS)中。OBS桶需要与ModelArts在同一区域,例如OBS桶区域为“北京四”时,必须保证ModelArts管理控制台区域也在“北京四”区域,否则会导致无法获取到相关数据。 数据集要求