检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
产品优势 全面的大模型系列 盘古大模型服务支持盘古NLP、CV、多模态、预测、科学计算五大基础模型能力,支持三方大模型的推理与部署,目前已预置DeepSeek R1/V3模型,多种模态逐步融合。 成熟的行业服务 首创大模型分层架构,基于盘古基础大模型训练行业大模型,支持在矿山、电
储、对象存储、VPC网络、弹性公网IP、镜像等公共服务。Region分为通用Region和专属Region,通用Region指面向公共租户提供通用云服务的Region;专属Region指只承载同一类业务或只面向特定租户提供业务服务的专用Region。 详情请参见区域和可用区。 可用区(AZ,Availability
None 服务介绍 盘古大模型服务 视频介绍 02:35 了解什么是盘古大模型服务 RAG科普介绍 视频介绍 07:25 RAG检索增强生成 科普介绍 云容器引擎 CCE 服务介绍 03:23 云容器引擎服务介绍 计算 云容器引擎 CCE 熟悉云容器引擎控制台 02:35 熟悉云容器引擎控制台
参数解释: 时序任务的历史窗口大小,该参数主要服务于支持多尺度窗口的模型的推理。 约束限制: 填写时需要保证输入序列长度大于等于该值。 取值范围: min:32。 max:与训练模型的历史窗口大小一致,最大不超过512。 -1为当前服务模型的默认大小。 默认取值: 训练模型的历史窗口大小
欠费说明 在使用云服务时,如果账户的可用额度低于待结算账单金额,即被判定为账户欠费。欠费可能会影响云服务资源的正常运行,因此需要及时充值。预付费模式购买后不涉及欠费。 服务按时长计费的,当余额不足以支付当前费用时,账户将被判定为欠费。由于盘古NLP大模型不涉及物理实体资源,因此无
数组长度:1 - 20 model V1推理接口:否 V2推理接口:是 String 使用的推理服务模型名称,为推理服务部署时指定的Deployed_Model,可在推理服务详情页面查询到。V2推理接口必须指定此参数,V1推理接口不需要此参数。 stream 否 boolean
ModelArts Studio平台支持从OBS服务导入数据。您可以将本地数据上传至OBS(对象存储服务),然后通过平台提供的“数据导入”功能,将存储在OBS中的数据导入至平台进行使用。 具体操作步骤如下: 上传数据至OBS:将本地数据上传至OBS服务,请详见通过控制台快速使用OBS。 使
HTTP请求方法,表示服务正在请求操作类型,包括: GET:请求服务器返回指定资源。 PUT:请求服务器更新指定资源。 POST:请求服务器新增资源或执行特殊操作。 DELETE:请求服务器删除指定资源,如删除对象等。 HEAD:请求服务器资源头部。 PATCH:请求服务器更新资源的部分
审计 云审计服务(Cloud Trace Service,CTS)是华为云安全解决方案中专业的日志审计服务,提供对各种云资源操作记录的收集、存储和查询功能,可用于支撑安全分析、合规审计、资源跟踪和问题定位等常见应用场景。 用户开通云审计服务并创建、配置追踪器后,CTS可记录用户使用盘古的管理事件和数据事件用于审计。
获取已部署模型的调用路径。在“我的服务”页签,单击状态为“运行中”的模型名称,在“API调用”页签,可获取模型调用路径,并根据页签的调用方法进行调用,如图2。 图2 获取已部署模型的调用路径v2 图3 获取已部署模型的调用路径v1 获取预置服务的调用路径。在“预置服务”页签中,选择所需调用的
json解析报错 服务端返回的数据格式不符合json格式,导致sdk侧解析json数据报错。 服务端返回的json数据不符合json反序列化的规则,和sdk定义的数据结构不一致,导致反序列化失败。 sdk json数据解析问题。 建议排查服务端返回的数据是否和服务SDK设计的结构、字段一致。
的完善云服务安全保障体系。 安全性是华为云与您的共同责任,如图1所示。 华为云:负责云服务自身的安全,提供安全的云。华为云的安全责任在于保障其所提供的IaaS、PaaS和SaaS类云服务自身的安全,涵盖华为云数据中心的物理环境设施和运行其上的基础服务、平台服务、应用服务等。这不仅
“体验中心”功能支持用户直接调用已部署的预置服务,使用步骤如下: 登录ModelArts Studio大模型开发平台,进入所需空间。 单击左侧“体验中心”,进入“文本对话”页签,选择服务,参数设置为默认参数,在输入框输入问题,模型将基于问题进行回答。 图1 使用预置服务进行文本对话 可以尝试修改参
在特定任务上具有更高的准确性:微调后的模型在具体任务中表现更优。相较于预训练阶段的通用能力,微调能使模型更好地解决细分任务的需求。 在一个客户服务问答系统中,可以用特定领域(如电商、保险)的对话数据对预训练模型进行微调,使其更好地理解和回答与该领域相关的问题。 此外,针对微调训练任务,平台提供了两种微调方式:
int(input1) return { # 注意输出参数中定义res变量 'res': input1 * input1 } except Exception as e: return { # 注意输出参数中定义res变量
订单的购买周期计费,适用于可预估资源使用周期的场景。 按需计费模式:按需付费是后付费方式,可以随时开通/关闭对应资源,支持秒级计费,系统会根据云服务器的实际使用情况每小时出账单,并从账户余额里扣款。 父主题: 计费FAQ
], "temperature": 0.9, "max_tokens": 600 } 单击Postman界面“Send”,发送请求。当接口返回状态为200时,表示NLP大模型API调用成功。 API Key鉴权说明 当用户部署的API服务期望开放给其他用户调用时,原有Token认证无法支持,
如何利用提示词提高大模型在难度较高推理任务中的准确率 可以通过思维链的方式提高大模型在复杂推理任务中的准确率。 思维链是一种通过分步骤推理来提升大模型在复杂任务中表现的方法。通过引导模型思考问题的过程,可以使其在推理任务中得到更高的准确性,尤其是在涉及多步推理和复杂逻辑关系的任务中。
exception. 服务内部异常。 请联系服务技术支持协助解决。 PANGU.3254 The requested inference service does not exist. 资源不存在。 请检查调用API时projectId和deploymentId是否填写正确,推理服务状态是否可用。
言处理能力比肩OpenAI o1正式版。DeepSeek-R1-32K-0.0.1版本支持推理部署。 平台已预置推理服务,用户可通过体验中心或者API调用该推理服务。 直接部署模型时,已预置最优模型,无需进行压缩后再部署。 表1 推理特性 推理精度 INT8 序列长度 32K 起推规格(推理单元)