检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
e效果增强,会对精度造成轻微影响。 turbo_mode:加速模式。支持 "faiz","next_faiz" 模式,默认为"default"不启用。推荐使用 next_faiz 模式,达到最高性能。不设置此参数时,表示不启用加速模式。turbo_mode加速模式能加速视频推理,但会对精度造成轻微影响。
Key是否支持跨区域使用? API Key是区域级别的,不支持跨区域使用。例如,贵阳一区域的API Key必须通过贵阳一控制台创建,且仅能在该区域内调用服务。其他区域的API Key同理。 父主题: ModelArts Studio(MaaS)
要保存当前运行环境以便后续使用或开发时,可通过此接口将实例保存为镜像。使用该接口的前提条件是用户已登录系统并具有访问目标实例的权限,同时实例必须处于运行状态。调用该接口后,系统将保存实例的当前状态为容器镜像,包括安装的依赖包和插件。若用户无权限访问指定实例或实例未运行,接口将返回相应的错误信息。
objects 参数解释:服务器私有IP信息。 image ServerImageResponse object 参数解释:服务器镜像信息。 category String 参数解释:服务器归属类型。 取值范围: HPS:超节点服务器 SPOD:整柜服务器 SERVER:单台服务器 server_hps
参数说明 --backend:服务类型,支持tgi、vllm、mindspore、openai等后端。本文档使用的推理接口是openai。 --host:服务部署的IP,${docker_ip}替换为宿主机实 际的IP地址。 --port:推理服务端口。 --tokenizer:
将AscendCloud代码包AscendCloud-xxx-xxx.zip上传到${workdir}目录下并解压缩,如SFS Turbo的路径:/mnt/sfs_turbo目录下,以下都以/mnt/sfs_turbo为例,请根据实际修改。 unzip AscendCloud-*.zip unzip AscendCloud-LLM-*
性能预期:QPS 20/s - 业务访问方式 推理业务访问:“客户端 -> 云服务” 或 “云客户端 -> 云服务”。 推理业务时延要求,客户端到云服务端到端可接受时延。 例如:当前是“客户端 -> 云服务”模式,客户端请求应答可接受的最长时延为2秒。 - 模型参数规模,是否涉及分布式推理
server_list[i]["server_ip"] == server_ip: return True return False def gen_global_merged_rank_table( self
benchmark_serving.csv --backend:服务类型,如tgi,vllm,mindspore、openai。 --host ${docker_ip}:服务部署的IP地址,${docker_ip}替换为宿主机实际的IP地址。 --port:推理服务端口。 --dataset:数据集路径。
图7 软硬件版本兼容性测试示例 表17 软硬件版本兼容性测试回显参数说明 参数 说明 System Information 系统信息 Architecture 架构 Type 标卡型号/芯片型号 Compatibility Check Result 兼容性检测结果 Package
如果您使用的是专属资源池,则训练作业就不再进行单独计费。由专属资源池进行收费。 Standard中模型部署为服务后如何收费? ModelArts支持将模型按照业务需求部署为服务。训练类型不同,部署后的计费方式不同。 将模型部署为服务时,根据数据集大小评估模型的计算节点个数,根据实际编码情况选择计算模式。 具体
订阅Workflow、模型训练、模型部署 Notebook 创建Notebook、启动Notebook 训练作业 创建训练作业 在线服务、边缘服务 部署在线服务、边缘服务 专属资源池 创建、冻结、解冻、删除专属资源池 父主题: 计费模式
表14 nfs属性列表 参数 参数类型 说明 id String SFS Turbo 文件系统 ID。 src_path String SFS Turbo 文件系统地址。 dest_path String 训练作业的本地路径。 read_only Boolean dest_path
objects 参数解释:服务器私有IP信息。 image ServerImageResponse object 参数解释:服务器镜像信息。 category String 参数解释:服务器归属类型。 取值范围: HPS:超节点服务器 SPOD:整柜服务器 SERVER:单台服务器 server_hps
参数说明 --backend:服务类型,支持tgi、vllm、mindspore、openai等后端。本文档使用的推理接口是openai。 --host:服务部署的IP,${docker_ip}替换为宿主机实 际的IP地址。 --port:推理服务端口。 --tokenizer:
准备镜像主机 准备一台Linux x86_64架构的主机,操作系统使用ubuntu-18.04。您可以准备相同规格的弹性云服务器ECS或者应用本地已有的主机进行自定义镜像的制作。 购买ECS服务器的具体操作请参考购买并登录Linux弹性云服务器。“CPU架构”选择“x86计算”,“镜像”选择“公共镜像”,推荐使用Ubuntu18
主用户账号下面可以创建多个子账号,并对子账号的权限进行分组管理。此步骤介绍如何创建用户组、子账号、并将子账号加入用户组中。 主用户登录统一身份认证服务管理控制台。 图1 统一身份认证 创建用户组。在左侧菜单栏中,选择“用户组”。单击右上角“创建用户组”,在“用户组名称”中填入“用户组02”,然后单击“确定”完成用户组创建。
创建Workflow模型注册节点 功能介绍 通过对ModelArts模型管理的能力进行封装,实现将训练后的结果注册到模型管理中,便于后续服务部署、更新等步骤的执行。主要应用场景如下: 注册ModelArts训练作业中训练完成的模型。 注册自定义镜像中的模型。 属性总览 您可以使用
"from": "user", "value": "Picture 1: <img>assets/mm_tutorial/Chongqing.jpeg</img>\nPicture 2: <img>assets/mm_tutorial/Beijing.jpeg</img>\n图中都是哪"
S权限自定义策略样例。 在统一身份认证服务为用户增加自定义策略权限。详细操作请参见创建自定义策略。 登录“统一身份认证服务”控制台,左侧菜单选择“权限管理 > 权限”,单击右上角“创建自定义策略”,创建自定义策略权限。 图3 统一身份认证服务添加权限 图4 创建自定义策略 权限内容如下: