检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
训练服务配置说明 参数配置说明 tokenizer文件修改 断点续训和故障快恢说明 数据说明 模型最小卡数配置 父主题: 主流开源大模型基于ModelArts Standard&Lite Server适配AscendFactory PyTorch NPU训练指导(6.5.902)
训练服务配置说明 参数配置说明 tokenizer文件修改 训练数据说明 VeRL数据处理样例脚本 父主题: 主流开源大模型基于ModelArts Lite Server适配AscendFactory PyTorch NPU训练指导(6.5.906)
完成资源配置后,单击“继续运行”,在弹框中确认继续运行后,服务部署节点将继续运行,直至状态变为“运行成功”,至此,已将模型部署为在线服务。 服务测试 服务部署节点运行成功后,单击“实例详情”可跳转至对应的在线服务详情页面。单击“预测”页签,进行服务测试。 图1 服务测试 下面的测试,是您在自动学习文本
quit) Step4 请求推理服务 另外启动一个terminal,使用命令测试推理服务是否正常启动,端口请修改为启动服务时指定的端口。 使用命令测试推理服务是否正常启动。服务启动命令中的参数设置请参见表1。 方式一:通过OpenAI服务API接口启动服务使用以下推理测试命令。${d
完成资源配置后,单击“继续运行”,服务部署节点将继续运行,直至状态变为“运行成功”,至此,已将模型部署为在线服务。 服务测试 服务部署节点运行成功后,单击“实例详情”可跳转至对应的在线服务详情页面。单击“预测”页签,进行服务测试。 图1 服务测试 下面的测试,是您在自动学习物体
推理服务性能评测 语言模型推理性能测试 多模态模型推理性能测试 获取模型推理的Profiling数据 父主题: 主流开源大模型基于Lite Server适配Ascend-vLLM PyTorch NPU推理指导(6.5.901)
训练服务配置说明 参数配置说明 tokenizer文件修改 数据说明 模型最小卡数配置 VeRL数据处理样例脚本 父主题: 主流开源大模型基于ModelArts Standard&Lite Server适配AscendFactory PyTorch NPU训练指导(6.5.905)
更新模型服务的单个属性 功能介绍 更新模型服务的单个属性,目前只支持instance_count(更新模型服务实例数量),仅运行中、告警、异常状态下的在线服务可以执行该操作。 调试 您可以在API Explorer中调试该接口,支持自动认证鉴权。API Explorer可以自动生
service_id String 服务ID。 service_name String 服务名称。 description String 服务描述。 tenant String 服务归属租户。 project String 服务归属项目。 owner String 服务归属用户。 publish_at
在左侧导航栏,选择“在线推理”。 在“在线推理”页面,单击“我的服务”页签,在目标模型服务右侧,单击操作列的“更多 > 设置QPS”,在弹窗中修改数值,单击“提交”启动修改任务。 图1 修改QPS 在“我的服务”页签,单击服务名称,进入服务详情页,可以查看修改后的QPS是否生效。 父主题: 在ModelArts
昇腾云服务6.3.906版本说明 本文档主要介绍昇腾云服务6.3.906版本配套的镜像地址、软件包获取方式和支持的特性能力。 配套的基础镜像 镜像地址 获取方式 配套关系镜像软件说明 配套关系 PyTorch: 西南-贵阳一 swr.cn-southwest-2.myhuaweicloud
昇腾云服务6.5.906.1版本说明 本文档主要介绍昇腾云服务6.5.906.1版本配套的镜像地址、软件包获取方式和支持的特性能力。 当前版本仅适用于华为公有云。 配套的基础镜像 芯片 镜像地址 获取方式 镜像软件说明 Snt9b pytorch_2.1.0: swr.cn-southwest-2
推理服务部署 准备推理环境 启动推理服务 父主题: 主流开源大模型基于Lite Server适配Ascend-vLLM PyTorch NPU推理指导(6.5.901)
推理服务性能评测 语言模型推理性能测试 多模态模型推理性能测试 获取模型推理的Profiling数据 父主题: 主流开源大模型基于Lite Server适配Ascend-vLLM PyTorch NPU推理指导(6.5.902)
推理服务性能评测 语言模型推理性能测试 多模态模型推理性能测试 获取模型推理的Profiling数据 父主题: 主流开源大模型基于Lite Server&Cluster适配Ascend-vLLM PyTorch NPU推理指导(6.5.905)
推理服务部署 准备推理环境 启动推理服务 父主题: 主流开源大模型基于Lite Server适配Ascend-vLLM PyTorch NPU推理指导(6.3.912)
昇腾云服务6.3.905版本说明 本文档主要介绍昇腾云服务6.3.905版本配套的镜像地址、软件包获取方式和支持的特性能力。 配套的基础镜像 镜像地址 获取方式 镜像软件说明 配套关系 PyTorch: 西南-贵阳一 swr.cn-southwest-2.myhuaweicloud
署服务一般需要运行一段时间,根据您选择的数据量和资源不同,部署时间将耗时几分钟到几十分钟不等。 批量服务部署完成后,将立即启动,运行过程中将按照您选择的资源按需计费。 您可以前往批量服务列表,查看批量服务的基本情况。在批量服务列表中,刚部署的服务“状态”为“部署中”,当批量服务的
service_id 否 String 服务ID,在创建服务时即可在返回体中获取,也可通过查询服务列表接口获取当前用户拥有的服务,其中service_id字段即为服务ID。默认不过滤服务ID。 service_name 否 String 服务名称,由用户创建时指定,默认不过滤服务名。 model_id
状态。下面是一个livenessProbe的配置样例,通过health.sh脚本来探测服务状态,容器启动后2400秒进行第一次探测,每10秒探测一次,单次探测超时时间10秒,连续失败6次认为服务异常。 kind: KubeInfer apiVersion: infer.modelarts