检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
"content": "介绍下长江,以及长江中典型的鱼类" } ], "temperature": 0.9, "max_tokens": 600 } 单击Postman界面“Send”按钮,发送请求。当接口返回状态为200时,表示NLP大模型API调用成功。
[{"role": "user","content": "{{message}}"}],"max_tokens": 1024, "temperature": 0.7,"top_p": 0.95,"presence_penalty": 0.5,"frequency_penalty": 0.5
"content": "介绍下长江,以及长江中典型的鱼类" } ], "temperature": 0.9, "max_tokens": 600 } 单击Postman界面“Send”,发送请求。当接口返回状态为200时,表示NLP大模型API调用成功。
应用场景 客服助手 通过NLP大模型对传统的客服系统进行智能化升级,提升智能客服的效果。企业原智能客服系统仅支持回复基础的FAQ,无语义泛化能力,意图理解能力弱,转人工频率极高。面对活动等时效性场景,智能客服无回答能力。提高服务效率:大模型智能客服可以7x24小时不间断服务,相较
度控制,如下提供了这些推理参数的建议值和说明,供您参考: 表1 推理参数的建议和说明 推理参数 范围 建议值 说明 温度(temperature) 0~1 0.3 温度主要用于控制模型输出的随机性和创造性。温度越高,输出的随机性和创造性越高;温度越低,输出结果越可以被预测,确定性相对也就越高。
调优典型问题 为什么微调后的模型,回答总是在重复某一句或某几句话? 当您将微调的模型部署以后,输入一个与目标任务同属的问题,模型生成了复读机式的结果,即回答中反复出现某一句话或某几句话。这种情况可能是由于以下几个原因导致的,建议您依次排查: 推理参数设置:请检查推理参数中的“话题
"content": "介绍下长江,以及长江中典型的鱼类" } ], "temperature": 0.9, "max_tokens": 600 } 综上,您可以使用curl、Postman或直接编写代码等方式发送请求调用
计费模式 包周期计费模式属于预付费模式,即先付费再使用。按需计费模式属于后付费模式,即费用根据服务实际消耗量计费,系统将每小时自动扣费。 盘古大模型的计费模式见表1。 表1 计费模式表 计费类别 计费项 计费模式 计费量纲 付费方式 计费周期 模型服务 模型订阅服务 包周期计费 套
"content": "介绍下长江,以及长江中典型的鱼类" } ], "temperature": 0.9, "max_tokens": 600 } 单击Postman界面“Send”,发送请求。当接口返回状态为200时,表示NLP大模型API调用成功。
Acceptable 服务器无法根据客户端请求的内容特性完成请求。 407 Proxy Authentication Required 请求要求代理的身份认证,与401类似,但请求者应当使用代理进行授权。 408 Request Timeout 服务器等待请求发生超时。 客户端可以随时再次提交该请求而无需进行任何更改。
模型名称 prompt 样例 Pangu-NLP-N1-32K-3.1.34 [unused9]系统:你生成综合质量(有用性,事实性,无害性)极好的回复。[unused10][unused9]系统:你是一个擅长于文章写作、文本分析、代码编写、数学运算、逻辑推理的AI助手,专注于针对用户
制,表1提供了典型推理参数的建议值和说明,供您参考: 表1 典型推理参数的建议和说明 推理参数 范围 建议值 说明 温度(temperature) 0~1 0.3 温度主要用于控制模型输出的随机性和创造性。温度越高,输出的随机性和创造性越高;温度越低,输出结果越可以被预测,确定性相对也就越高。
输入应用名称和应用描述,为应用选择一个图标作为头像。 单击“确认”。 创建应用后,直接进入应用编排页面。您可以: 在左侧提示词面板中描述应用的身份和任务。 在中间技能面板为应用配置各种扩展能力。 在中间对话体验面板为应用设置各种对话配置。 在右侧预览调试面板中,实时调试应用。 图2 创建应用
式,按订单的购买周期计费,适用于可预估资源使用周期的场景。 按需计费模式:按需付费是后付费方式,可以随时开通/关闭对应资源,支持秒级计费,系统会根据云服务器的实际使用情况每小时出账单,并从账户余额里扣款。 父主题: 计费FAQ
数据工程介绍 数据工程介绍 数据工程是ModelArts Studio大模型开发平台(下文简称“平台”)为用户提供的一站式数据处理与管理功能,旨在通过系统化的数据获取、加工、发布等过程,确保数据能够高效、准确地为大模型的训练提供支持,帮助用户高效管理和处理数据,提升数据质量和处理效率,为大模型开发提供坚实的数据基础。
数据工程使用流程 高质量数据是推动大模型不断迭代和优化的根基,它的质量直接决定了模型的性能、泛化能力以及应用场景的适配性。只有通过系统化地准备和处理数据,才能提取出有价值的信息,从而更好地支持模型训练。因此,数据的获取、加工、合成、标注、配比、评估、发布等环节,成为数据开发中不可或缺的重要步骤。
配置插件 Agent开发平台提供了一个丰富的插件生态系统,以增强智能体的功能。插件是一种工具集,一个插件即是一个API工具。目前,平台集成了类型丰富的插件,包括文件处理、代码解释器、全网热搜榜、高德地图等工具,这些插件能够帮助开发者快速为智能体添加特定功能。此外,平台还支持创建自
行研读或者研究,并通过与人工智能大模型的交互对于该篇文章进行深层次的理解,因此产生如下应用场景: 图1 AI研读研究助手业务交互流程图 此系统采用应用Agent平台进行构建,通过图形化界面快速设计、配置各项功能模块,无需代码开发,降低开发门槛,为学术研究领域的读者或者作者提供基于
大模型概念类 如何对盘古大模型的安全性展开评估和防护 训练智能客服系统大模型需考虑哪些方面
提示词应用示例 应用提示词实现智能客服系统的意图匹配 应用提示词生成面试题目 父主题: 提示词写作实践