检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
悉和掌握如下开发能力: 使用Java语言进行微服务开发。假设您已经基于一种ServiceStage支持的微服务开发框架开发了应用系统,并期望将应用系统托管在微服务引擎上运行。本文档提供微服务应用接入微服务引擎的相关技术支持。开源微服务开发框架如何使用不是本文档的范围,您可以通过开
WAIT_EVENTS显示当前节点wait event的相关统计信息。内核中关键的事件信息见表2。或从视图wait_event_info中查看系统中所有的事件列表。关于每种事务锁对业务的影响程度,请参考LOCK语法小节的详细描述。 表1 WAIT_EVENTS字段 名称 类型 描述 nodename
如何解决Roles with READONLY_USER或其他角色权限报错问题? 用户需要具有Tenant Administrator或VSS Administrator权限才能使用二进制成分分析相关业务,请分别联系具有Tenant Administrator或VSS Admin
账套批量授权给用户 ERP应用授权给用户后,可以将账套批量授权给多个用户。 使用企业管理员账号登录IMC管理后台。 单击业务管理-应用管理-单位应用管理,选择SparkPack 企业ERP-更多-字段授权,进入字段授权页面。 点击批量授权。 1、不要点击“删除数据源”,删除数据源
查询微服务实例详细信息 功能介绍 实例注册后可以根据service_id和instance_id获取该实例的详细信息。 URI GET /v4/{project_id}/registry/microservices/{service_id}/instances/{instance_id}
预训练超参配置 本章节介绍预训练前的超参配置,可以根据实际需要修改。 预训练脚本baichuan2.sh,存放在“6.3.904-Ascend/llm_train/AscendSpeed/scripts/baichuan2”目录下。训练前,可以根据实际需要修改超参配置。 表1 超参配置
推理场景介绍 方案概览 本方案介绍了在ModelArts的Lite DevServer上使用昇腾计算资源开展常见开源大模型Llama/Llama2、Qwen、ChatGLM、Yi、Baichuan等推理部署的详细过程。本方案利用适配昇腾平台的大模型推理服务vLLM和华为自研昇腾S
推理场景介绍 方案概览 本方案介绍了在ModelArts的Lite DevServer上使用昇腾计算资源开展常见开源大模型Llama、Qwen、ChatGLM、Yi、Baichuan等推理部署的详细过程。本方案利用适配昇腾平台的大模型推理服务框架vLLM和华为自研昇腾Snt9B硬
附录:大模型推理常见问题 问题1:在推理预测过程中遇到NPU out of memory 解决方法:调整推理服务启动时的显存利用率,将--gpu-memory-utilization的值调小。 问题2:在推理预测过程中遇到ValueError:User-specified max_model_len
预训练任务 步骤1 上传训练权重文件和数据集 如果在准备代码和数据阶段已经上传权重文件和数据集到容器中,可以忽略此步骤。 如果未上传训练权重文件和数据集到容器中,具体参考上传代码和权重文件到工作环境和上传数据到指定目录章节完成。训练脚本中会自动执行训练前的权重转换操作和数据处理操作。
场景介绍 方案概览 本文档利用训练框架PyTorch_npu+华为自研Ascend Snt9B硬件,为用户提供了常见主流开源大模型在ModelArts Lite DevServer上的预训练和全量微调方案。训练框架使用的是ModelLink。 本方案目前仅适用于部分企业客户,完成
推理模型量化 使用AWQ量化 使用SmoothQuant量化 使用kv-cache-int8量化 父主题: 主流开源大模型基于DevServer适配PyTorch NPU推理指导(6.3.907)
安装服务器 打开“服务器管理器”,选择“仪表板”,进入仪表板界面。 图1 仪表板页面 单击“添加角色和功能”,打开“添加角色和功能向导”窗口,根据向导指示,逐步单击“下一步”操作。 图2 开始之前 选择基于角色或基于功能的安装。 图3 选择安装类型 在服务器池中选择目标服务器。 图4
准备工作 准备环境 准备代码 准备镜像环境 准备数据(可选) 父主题: 主流开源大模型基于DevServer适配LlamaFactory PyTorch NPU训练指导(6.3.909)
创建公共服务接口 前端页面支持通过页面创建的服务对象调用脚本,但是为了避免各种权限之间的配置,这里通过创建与脚本“HW__editEquipment”、“HW__queryEquipmentDetail”一一对应的公共接口,让页面直接调用这种公共接口。 操作步骤 在应用中,单击下方“服务”,进入公共接口创建页面。
准备工作 准备环境 准备代码 准备数据 准备镜像 父主题: 主流开源大模型基于DevServer适配ModelLink PyTorch NPU训练指导(6.3.908)
赋予用户schema的all权限后建表仍然报错ERROR: current user does not have privilege to role tom 问题现象 有两个用户tom和jerry,jerry需要在tom的同名schema下创建表,于是tom把该schema的al
应用逻辑隔离管理 应用逻辑隔离主要用于不同的开发环境共享公共CSE资源的场景,降低成本。逻辑隔离还用于微服务之间的关系管理,通过配合合理的隔离策略,可以更好地控制微服务之间的可访问性、权限等。 服务发现 按照app隔离不同的业务域的微服务。 不同的业务域使用不一样的app名称。同
登录Manager集群页面时报错“You have no right to access the page” 问题现象 访问集群管理页面报错: You have no right to access the page. 原因分析 当前登录的用户没有访问Manager的权限。 “/
准备Jenkins环境 环境信息说明 在Linux虚拟机上安装Jenkins,本实践使用的具体环境信息如下所示。如果使用镜像包部署,需要在虚拟机中安装Docker。 虚拟机:CentOS 7.9 Jenkins:2.319.3 git:yum安装 JDK:11.0.8 Apache