检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
Studio(MaaS)管理API Key 在调用MaaS部署的模型服务时,需要填写API Key用于接口的鉴权认证,保障服务访问的安全性和合法性。本文介绍如何创建和删除API Key。 场景描述 当用户使用MaaS部署的模型服务进行数据请求、模型推理等操作时,系统通过验证API Key来确认用户的身份与访问权限,只有具备有效API
Studio(MaaS)创建自定义MCP服务 在ModelArts Studio(MaaS)MCP广场开通预置MCP服务 计费说明 预置MCP服务:在MCP广场开通MCP服务不涉及收费。调用MCP服务时,可能会涉及到第三方平台服务的使用费用,请以第三方平台的计费规则为准。 自定义MCP服务:创建自定义MC
像多了步骤:DockerFile制作训练镜像。 详细步骤 创建镜像组织:在SWR服务页面创建镜像组织。 图1 创建镜像组织 登录ECS服务器: 根据2.2.1-3. 创建ECS服务器创建完成ECS服务器后,单击“远程登录”,可使用华为CloudShell远程登录如图所示。后续安装
command: ["/bin/sh", "-c"] args: - cd /mnt/sfs_turbo/llm_train/AscendFactory; ascendfactory-cli train <cfgs_yaml_file>
端到端实践案例请参见面向AI场景使用OBS+SFS Turbo的存储加速实践。 表1 不同场景所需服务及购买推荐 场景 OBS SFS SWR DEW ModelArts VPC ECS EVS 单机单卡 按需购买(并行文件系统) × 免费 免费 包月购买 免费 × 按需购买 单机多卡
在左侧导航栏,单击“在线推理”。 在“预置服务”页签,单击“免费服务”页签,在DeepSeek服务右侧的“操作”列,单击“领取额度”。 免费配额将会在几分钟内到账,到账后您可进行体验或调用。当免费Token额度用完后,还要继续使用该模型,可以部署为我的服务付费使用,或开通商用服务付费使用。详情请参见使
渡升级。修改服务部署新版本模型或者切换模型版本时,原服务预测API不会变化。 调整模型版本的操作可以参考如下的步骤。 前提条件 已存在部署完成的服务。 已完成模型调整,创建模型。 操作步骤 登录ModelArts管理控制台,在左侧导航栏中选择“部署上线 > 在线服务”,默认进入“在线服务”列表。
获取待上传的文件名 获取待上传的文件在服务器的绝对路径。 上传单个文件 在服务器执行如下命令,可以将服务器上的文件上传到AI Gallery仓库里面。 gallery-cli upload {repo_id} {文件名} 如下所示,表示将服务器上的文件“D:\workplace\
模型部署系统,提供模型版本管理、服务回滚等能力。通过配置模型路径、模型端口、模型名称等参数,原生TFServing镜像可以快速启动提供服务,并支持gRPC和HTTP Restful API的访问方式。 Triton是一个高性能推理服务框架,提供HTTP/gRPC等多种服务协议,支
--image String 否 自定义镜像路径,格式为:组织名/镜像名:镜像版本。当用户设置“feature”为“custom”时,该参数生效。用户可通过与“feature”参数配合使用,指定作业运行使用自定义的Spark镜像。 -obs / --obs-bucket String
使用Gallery CLI配置工具下载文件 在服务器(ModelArts Lite云服务器或者是本地Windows/Linux等服务器)上登录Gallery CLI配置工具后,通过命令“gallery-cli download”可以从AI Gallery仓库下载资源。 命令说明 登录Gallery
创建模型 部署模型 部署服务 ModelArts支持将模型部署为在线服务、批量服务和边缘服务。 部署为在线服务 部署为批量服务 访问服务 服务部署完成后,针对在线服务和边缘服务,您可以访问并使用服务,针对批量服务,您可以查看其预测结果。 访问在线服务 查看批量服务预测结果
NPU的HBM总的多Bit Ecc隔离地址记录达到64个。 NT_NET_NTP_CHECK Runtime 其他 ntp异常。 ntpd或者chronyd服务异常。 NT_KUBE_DISK_READONLY_CHECK Runtime 其他 Kubelet硬盘只读 以下目录只读: /mnt/p
vllm_single_node.yaml vllm_single_node.yaml文件用于单机部署推理服务。 用户可修改的字段详情见基于K8s Deployment单机部署推理服务中的步骤1:配置模型及镜像参数。 apiVersion: apps/v1 kind: Deployment
ModelArts服务软件开发工具包(ModelArts SDK)是对ModelArts服务提供的REST API进行的Python封装,以简化用户的开发工作。用户直接调用ModelArts SDK即可轻松管理数据集、启动AI训练以及生成模型并将其部署为在线服务。 ModelArts
本章节适用于在Linux操作系统的PC中安装配置Grafana。 前提条件 一台可访问外网的Ubuntu服务器。如果没有请具备以下条件: 准备一台ECS服务器(建议规格选8U或者以上,镜像选择Ubuntu,建议选择22.04版本,本地存储100G),具体操作请参考《购买弹性云服务器》。 购买弹
问题现象 训练作业运行失败,日志中出现如下类似报错: [Modelarts Service Log]Training end with return code: 137 原因分析 日志显示训练进程的退出码为137。训练进程表示用户的代码启动后的进程,所以这里的退出码是用户的训练作业代
单个弹性公网IP用于单个Server服务器:为单台Server服务器绑定一个弹性公网IP,该Server服务器独享网络资源。 单个弹性公网IP用于多个Server服务器:一个VPC配置一个EIP(弹性公网IP),通过NAT网关配置进行EIP资源共享,实现该VPC下的所有Server服务器均可以通过该E
ECS获取基础镜像 Step1 登录ECS服务器 根据创建ECS服务器创建完成ECS服务器后,单击“远程登录”,可使用华为CloudShell远程登录。后续安装Docker、获取镜像、构建镜像等操作均在该ECS上进行。 Step2 创建镜像组织 在SWR服务页面创建镜像组织。 图1 创建镜像组织
ECS获取和上传基础镜像 Step1 创建镜像组织 在SWR服务页面创建镜像组织。 图1 创建镜像组织 Step2 登录ECS服务器 根据创建ECS服务器创建完成ECS服务器后,单击“远程登录”,可使用华为CloudShell远程登录如图所示。后续安装Docker、获取镜像、构建镜像等操作均在该ECS上进行。