检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
精度比对 精度比对功能主要针对两类场景的问题: 同一模型,从CPU或GPU移植到NPU中存在精度下降问题,对比NPU芯片中的API计算数值与CPU或GPU芯片中的API计算数值,进行问题定位。 同一模型,进行迭代(模型、框架版本升级或设备硬件升级)时存在的精度下降问题,对比相同模
精度调试:TensorBoard可视化 TensorBoard是TensorFlow的可视化工具包,提供机器学习实验所需的可视化功能和工具。TensorBoard能够有效地展示训练过程中的计算图、各种指标随时间的变化趋势以及训练中使用到的数据信息,帮助用户快速识别训练精度问题。
rver对应的裸金属服务器,后续挂载磁盘、绑定弹性网络IP等操作可在BMS服务控制台上完成。 更多裸金属服务器的介绍请见裸金属服务器BMS。 密钥对 弹性裸金属支持SSH密钥对的方式进行登录,用户无需输入密码就可以登录到弹性裸金属服务器,因此可以防止由于密码被拦截、破解造成的账户
模型部署系统,提供模型版本管理、服务回滚等能力。通过配置模型路径、模型端口、模型名称等参数,原生TFServing镜像可以快速启动提供服务,并支持gRPC和HTTP Restful API的访问方式。 Triton是一个高性能推理服务框架,提供HTTP/gRPC等多种服务协议,支
您所在企业的华为方技术支持。 提示:本文档适用于OBS+SFS Turbo的数据存储方案,不适用于仅OBS存储方案。通过OBS对象存储服务(Object Storage Service)与SFS Turbo文件系统联动,可以实现灵活数据管理、高性能读取等。 约束限制 适配的CANN版本是cann_8
Arts在任务执行过程中需要访问用户的其他服务,典型的就是训练过程中,需要访问OBS读取用户的训练数据。在这个过程中,就出现了ModelArts“代表”用户去访问其他云服务的情形。从安全角度出发,ModelArts代表用户访问任何云服务之前,均需要先获得用户的授权,而这个动作就是
您所在企业的华为方技术支持。 提示:本文档适用于OBS+SFS Turbo的数据存储方案,不适用于仅OBS存储方案。通过OBS对象存储服务(Object Storage Service)与SFS Turbo文件系统联动,可以实现灵活数据管理、高性能读取等。 约束限制 如果要使用自动重启功能,资源规格必须选择八卡规格。
您所在企业的华为方技术支持。 提示:本文档适用于OBS+SFS Turbo的数据存储方案,不适用于仅OBS存储方案。通过OBS对象存储服务(Object Storage Service)与SFS Turbo文件系统联动,可以实现灵活数据管理、高性能读取等。 约束限制 如果要使用自动重启功能,资源规格必须选择八卡规格。
您所在企业的华为方技术支持。 提示:本文档适用于OBS+SFS Turbo的数据存储方案,不适用于仅OBS存储方案。通过OBS对象存储服务(Object Storage Service)与SFS Turbo文件系统联动,可以实现灵活数据管理、高性能读取等。 约束限制 适配的CANN版本是cann_8
参数解释:支持的存储类型。不同存储类型的差异,详见开发环境中如何选择存储。 取值范围:枚举类型,取值如下: SFS:弹性文件服务 EVS:云硬盘 OBS:对象存储服务 OBSFS:并行文件系统 EFS:弹性文件服务(SFS Turbo) mount_path String 参数解释:存储挂载至Notebook实例的目
${work_dir}/llm_train/AscendFactory/third-party/internvl25-8b.patch 父主题: 训练服务配置说明
准备训练模型适用的容器镜像。 准备Notebook 本案例需要创建一个Notebook,以便能够通过它访问SFS Turbo服务。随后,通过Notebook将OBS中的数据上传至SFS Turbo,并对存储在SFS Turbo中的数据执行编辑操作。 预训练 预训练 介绍如何进行预训练,包括训练数据处理、超参配置、创建训练任务及性能查看。
定义策略配置。 如果一个自定义策略中包含多个服务的授权语句,这些服务必须是同一属性,即都是全局级服务或者项目级服务。 由于OBS为全局服务,ModelArts为项目级服务,所以需要创建两条“作用范围”别为“全局级服务”以及“项目级服务”的自定义策略,然后将两条策略同时授予用户。
创建ModelArts委托接口用于创建包含OBS、SWR、IEF等依赖服务的ModelArts委托。该接口适用于以下场景:当需要配置ModelArts访问OBS、SWR、IEF等服务的权限时,用户可通过此接口创建委托。使用该接口的前提条件是用户具备创建委托的权限,并且需要在IAM系统中具备相应的权限。创建完成后,Mo
推理层日志定期清理 随着推理服务的持续运行,节点中会不断生成大量日志文件,主要保存的有进程、NPU CANN plog、ray等日志。若不及时清理,这些日志将长期占用磁盘空间,可能导致磁盘满载,进而影响服务性能甚至导致进程崩溃。为保障系统的稳定运行与磁盘资源的合理利用,需要配置定期清理老化日志的机制。
参考表2启动图编译缓存功能,指定图编译缓存路径。 单实例部署推理服务,生成图编译缓存。 多实例部署推理服务,正常加载图编译缓存。 EVS启动图编译缓存功能 不指定图编译缓存路径,单实例部署推理服务。 将单实例两个Decode容器内/home/ma-user/AscendCloud/.torchair_ca
attention_mask is not None # attention_mask = ~attention_mask 样例图: 父主题: 训练服务配置说明
当前benchmark是综合考虑了最小可运行卡数和最优性能平衡情况下测试出的配置,实际情况中可以根据集群规模大小和性能取舍进行参数调整。 父主题: 训练服务配置说明
单图单轮对话的post请求json, 可参考表2.请求服务json参数说明 docker_ip 是 str 启动多模态openAI服务的主机ip served_port 是 str 启动多模态openAI服务的端口号 表2 请求服务json参数说明 参数 是否必须 默认值 参数类型 描述
单图单轮对话的post请求json, 可参考表2.请求服务json参数说明 docker_ip 是 str 启动多模态openAI服务的主机ip served_port 是 str 启动多模态openAI服务的端口号 表2 请求服务json参数说明 参数 是否必须 默认值 参数类型 描述