检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
出替换命令。 /mnt/sfs_turbo 为宿主机中默认挂载SFS Turbo的工作目录,目录下存放着训练所需代码、数据等文件。 同样,/mnt/sfs_turbo 也可以映射至容器中,作为容器中挂载宿主机的目录。宿主机和容器使用不同的文件系统。为方便访问两个地址可以相同。 ${pvc_name}
选择“弹性文件服务 SFS”作为存储位置。 仅专属资源池支持,并需要在专属资源池对应的网络打通VPC才能生效,具体操作请参见ModelArts网络。 说明: 如果需要设置SFS Turbo的文件夹权限,请参考权限管理文档配置。 “弹性文件服务”:选择已创建的SFS Turbo(在弹性文件服务控制台创建SFS
print(outputs[0].outputs[0].text) MODEL_NAME表示对应模型路径。 在线推理使用Guided Decoding 启动推理服务请参考启动推理服务章节。 在线推理使用Guided Decoding时,在发送的请求中包含上述guided_json架构,具体示例可参考以下代码。 curl
查看Lite Server服务器详情 启动或停止Lite Server服务器 同步Lite Server服务器状态 切换或重置Lite Server服务器操作系统 制作Lite Server服务器操作系统 Lite Server资源热备管理 修改Lite Server服务器名称 授权修复Lite
重装DevServer服务器操作系统镜像 切换DevServer服务器操作系统镜像 切换DevServer超节点服务器操作系统镜像 查询用户所有超节点实例详情 删除DevServer超节点实例 重启DevServer实例 启动DevServer超节点服务器 停止DevServer超节点服务器 查询租户DevServer列表
GPU业务迁移至昇腾训练推理 训练迁移指导(PyTorch) 案例:Dit模型训练迁移 推理迁移指导(MindSporeLite) 案例:SD1.5推理迁移 迁移调优工具链
行选择,MaaS服务支持的系统权限,请参见表1。 表1 服务授权列表 待授权的服务 授权说明 IAM权限设置 是否必选 ModelArts 授予子用户使用ModelArts服务的权限。 ModelArts CommonOperations没有任何专属资源池的创建、更新、删除权限,只有使用权限。推荐给子用户配置此权限。
Server使用ECS服务器时不支持重装操作系统,部分区域使用裸金属服务器时也不支持重装操作系统,如果您想重装操作系统,您可通过切换操作系统的方式解决。更多信息,请参见Server使用前须知。 ModelArts Lite Server服务器重装或者切换操作系统后,对应的EVS系统盘ID发生变化,和下单时订单中的EVS
进行精细的权限管理,您可以使用统一身份认证服务(Identity and Access Management,简称IAM),如果华为云账号已经能满足您的要求,不需要创建独立的IAM用户,您可以跳过本章节,不影响您使用ModelArts服务的其它功能。 默认情况下,新建的IAM用户
像多了步骤:DockerFile制作训练镜像。 详细步骤 创建镜像组织:在SWR服务页面创建镜像组织。 图1 创建镜像组织 登录ECS服务器: 根据2.2.1-3. 创建ECS服务器创建完成ECS服务器后,单击“远程登录”,可使用华为CloudShell远程登录如图所示。后续安装
需要了解Notebook实例支持的配置选项时,可通过此接口查询可用的规格列表。使用该接口的前提条件是用户已登录系统并具有创建Notebook实例的权限。调用该接口后,系统将返回Notebook实例支持的可切换规格列表,包括内存、CPU等配置信息。若用户无权限创建Notebook实例,接口将返回相应的错误信息。
上传数据和算法至OBS(首次使用时需要) 前提条件 已经在OBS上创建好并行文件系统,请参见创建并行文件系统。 已经在obsutil安装和配置,请参见obsutils安装和配置。 准备数据 单击下载动物数据集至本地,并解压。 通过obsutil将数据集上传至OBS桶中。 ./obsutil
像多了步骤:DockerFile制作训练镜像。 详细步骤 创建镜像组织:在SWR服务页面创建镜像组织。 图1 创建镜像组织 登录ECS服务器: 根据2.2.1-3. 创建ECS服务器创建完成ECS服务器后,单击“远程登录”,可使用华为CloudShell远程登录如图所示。后续安装
出替换命令。 /mnt/sfs_turbo 为宿主机中默认挂载SFS Turbo的工作目录,目录下存放着训练所需代码、数据等文件。 同样,/mnt/sfs_turbo 也可以映射至容器中,作为容器中挂载宿主机的目录。宿主机和容器使用不同的文件系统。为方便访问两个地址可以相同。 ${pvc_name}
出替换命令。 /mnt/sfs_turbo 为宿主机中默认挂载SFS Turbo的工作目录,目录下存放着训练所需代码、数据等文件。 同样,/mnt/sfs_turbo 也可以映射至容器中,作为容器中挂载宿主机的目录。宿主机和容器使用不同的文件系统。为方便访问两个地址可以相同。 ${pvc_name}
登录云服务器查看工具包是否下载成功。 在云服务详情页面,单击节点页签的选择“前往控制台”跳转到云服务器控制台。 在云服务器控制台的节点基本信息页面,单击右上角“远程登录”选择登录方式远程登录云服务器节点。推荐使用CloudShell登录,直接页面单击“CloudShell登录”跳转
渡升级。修改服务部署新版本模型或者切换模型版本时,原服务预测API不会变化。 调整模型版本的操作可以参考如下的步骤。 前提条件 已存在部署完成的服务。 已完成模型调整,创建模型。 操作步骤 登录ModelArts管理控制台,在左侧导航栏中选择“部署上线 > 在线服务”,默认进入“在线服务”列表。
在“运行时长控制”选择是否指定运行时长。 不限时长:不限制作业的运行时长,AI Gallery工具链服务部署完成后将一直处于“运行中”。 指定时长:设置作业运行几小时后停止,当AI Gallery工具链服务运行时长达到指定时长时,系统将会暂停作业。时长设置不能超过计算资源的剩余额度。 说明: 如果选择付费资
获取待上传的文件名 获取待上传的文件在服务器的绝对路径。 上传单个文件 在服务器执行如下命令,可以将服务器上的文件上传到AI Gallery仓库里面。 gallery-cli upload {repo_id} {文件名} 如下所示,表示将服务器上的文件“D:\workplace\
HTTP方法 方法 说明 GET 请求服务器返回指定资源。 PUT 请求服务器更新指定资源。 POST 请求服务器新增资源或执行特殊操作。 DELETE 请求服务器删除指定资源,如删除对象等。 HEAD 请求服务器资源头部。 PATCH 请求服务器更新资源的部分内容。 当资源不存在