检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
启动或停止Lite Server服务器 同步Lite Server服务器状态 切换或重置Lite Server服务器操作系统 制作Lite Server服务器操作系统 Lite Server资源热备 退订Lite Server资源
on device”。 原因分析 ModelArts部署使用的是容器化部署,容器运行时有空间大小限制,当用户的模型文件或者其他自定义文件,系统文件超过Docker size大小时,会提示镜像内空间不足。 处理方法 公共资源池容器Docker size的大小最大支持50G,专属资源池Docker
获取到性能测试结果csv文件后,执行数据可视化脚本: cd ./llm_tools/PD_separate python draw_picture_4graph_p90.py \ --ttft-threshold 2000 \ --tpot-threshold 50 \ --requests-num
开启训练故障自动重启功能 创建训练作业时,可开启自动重启功能。当环境问题导致训练作业异常时,系统将自动修复异常或隔离节点,并重启训练作业,提高训练成功率。为了避免丢失训练进度、浪费算力。此功能已适配断点续训练。 图1 开启故障重启 断点续训练是通过checkpoint机制实现。c
介绍请见停止计费。 约束限制 包年/包月的Lite Server节点、整柜资源或超节点资源被冻结锁定时,无法通过“退订”功能释放资源,此时系统支持直接通过“释放”功能释放资源。 包年/包月的Lite Server节点、整柜资源或超节点资源处于“创建失败”或“错误”状态下时,可以直接删除。
MaaS部署模型服务。 背景介绍 客服系统是企业与消费者沟通的重要桥梁,然而传统的人工客服存在着人工成本高昂、数据收集和分析困难、难以24小时提供服务等痛点。 随着AI大模型的崛起,如何利用先进的大语言模型构建AI智能体并应用于智能客服系统,提供更加自然、流畅的对话体验,提高用户
ModelArts支持训练模型过程中安装第三方依赖包。在训练代码目录下放置“pip-requirements.txt”文件后,在训练启动文件被执行前系统会执行如下命令,以安装用户指定的Python Packages。 pip install -r pip-requirements.txt
第一条命令为安装Linux内核头文件和内核镜像,其中版本为5.4.0-144-generic。 第二条命令为重新生成GRUB引导程序的配置文件,用于在启动计算机时加载操作系统, 命令将使用新安装的内核镜像更新GRUB的配置文件,以便在下次启动时加载新的内核。 父主题: Lite Server
机器或资源池无法连通网络,并无法git clone下载代码、安装python依赖包的情况下,用户则需要找到已联网的机器(本章节以Linux系统机器为例)提前下载资源,以实现离线安装。用户可遵循以下步骤操作。 步骤一:资源下载 Python依赖包下载:进入 scripts/install
在线服务发起预测请求: 方式一:使用图形界面的软件进行预测(以Postman为例)。Windows系统建议使用Postman。 方式二:使用curl命令发送预测请求。Linux系统建议使用curl命令。 方式三:使用Python语言发送预测请求。 方式四:使用Java语言发送预测请求。
orch,训练使用的资源是CPU或GPU。 本实践教程仅适用于新版训练作业。 场景描述 本示例使用Linux x86_64架构的主机,操作系统ubuntu-18.04,通过编写Dockerfile文件制作自定义镜像。 目标:构建安装如下软件的容器镜像,并在ModelArts平台上
Key用于接口的鉴权认证,保障服务访问的安全性和合法性。本文介绍如何创建和删除API Key。 场景描述 当用户使用MaaS部署的模型服务进行数据请求、模型推理等操作时,系统通过验证API Key来确认用户的身份与访问权限,只有具备有效API Key的用户才能成功调用模型服务,防止未经授权的访问。 首次接入服务:用户首次调用模型接口时需要创建API
ken用量计费的模式。该服务适用于需要商用级稳定性、更高调用频次和专业支持的场景。 场景描述 企业智能客服:企业希望利用推理API优化客服系统,实现智能问答、意图识别,提升客服效率与客户满意度。 内容创作辅助:媒体、广告公司借助推理API进行文案创作、创意生成,提高内容产出的效率与质量。
是MPI,训练使用的资源是CPU或GPU。 本实践教程仅适用于新版训练作业。 场景描述 本示例使用Linux x86_64架构的主机,操作系统ubuntu-18.04,通过编写Dockerfile文件制作自定义镜像。 目标:构建安装如下软件的容器镜像,并在ModelArts平台上
方式,通过在HTTP请求头中添加参数X-Apig-AppCode来实现身份认证,无需复杂的签名过程,适合于客户端环境安全可控的场景,如内网系统之间的API调用。在ModelArts中,支持在部署在线服务时开启AppCode认证(部署模型为在线服务中的“支持APP认证”参数)。对于
ModelArts的工作空间是为企业客户提供的高阶功能,用于将资源划分为多个逻辑隔离的空间,并支持以空间维度进行访问权限的限定。开通工作空间后,系统会默认创建一个“default”空间,用户之前创建的所有资源均在此空间下。用户可以创建多个工作空间,每个新工作空间相当于一个独立的“Mod
是MPI,训练使用的资源是CPU或GPU。 本实践教程仅适用于新版训练作业。 场景描述 本示例使用Linux x86_64架构的主机,操作系统ubuntu-18.04,通过编写Dockerfile文件制作自定义镜像。 目标:构建安装如下软件的容器镜像,并在ModelArts平台上
问题现象 原因分析 原因分析一:密钥文件未放在指定路径,详情请参考安全限制或VS Code文档。请参考解决方法一处理。 原因分析二:当操作系统为macOS/Linux时,可能是密钥文件或放置密钥的文件夹权限问题,请参考解决方法二处理。 解决方法 解决方法一: 请将密钥放在如下路径或其子路径下:
orch,训练使用的资源是CPU或GPU。 本实践教程仅适用于新版训练作业。 场景描述 本示例使用Linux x86_64架构的主机,操作系统ubuntu-18.04,通过编写Dockerfile文件制作自定义镜像。 目标:构建安装如下软件的容器镜像,并在ModelArts平台上
背景说明 目前大模型的参数量已经达到千亿甚至万亿,随之大模型的体积也越来越大。千亿参数大模型的体积超过200G,在版本管理、生产部署上对平台系统产生了新的要求。例如:导入模型时,需要支持动态调整租户存储配额;模型加载、启动慢,部署时需要灵活的超时配置;当负载异常重启,模型需要重新加载,服务恢复时间长的问题亟待解决。