检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
AK/SK认证:通过AK(Access Key ID)/SK(Secret Access Key)加密调用请求。 Token认证 Token在计算机系统中代表令牌(临时)的意思,拥有Token就代表拥有某种权限。Token认证就是在调用API的时候将Token加到请求消息头,从而通过身份认证,获得操作API的权限。
主账号(最终租户)默认拥有系统管理员权限,支持给子账号分配角色。 角色包括:推理服务API调用人员、模型开发人员、运营人员、Prompt工程人员、系统管理员。 图9 设置用户角色 表2 角色和功能关系 功能 推理服务API调用人员 模型开发人员 运营人员 Prompt工程人员 系统管理员 总览
模型安全:通过模型动态混淆技术,使模型在运行过程中保持混淆状态,有效防止结构信息和权重信息在被窃取后暴露。 系统安全:通过网络隔离、身份认证和鉴权、Web安全等技术保护大模型系统安全,增强自身防护能力,以抵御外部安全攻击。 父主题: 大模型概念类问题
数据清洗”,单击界面右上角“创建任务”。 图1 数据清洗 依据需要清洗的数据类型,选择对应的数据集和数据集版本,输出路径,设置名称、描述等信息为可选项。 输出路径默认为系统生成,您也可以自定义输出路径,当前支持覆盖和追加两种方式。 覆盖:清洗后数据覆盖和替换原有数据集内容。 追加:清洗后数据增加到原有数据集路径下。
大模型的计量单位token指的是什么 大模型是否可以自定义人设 盘古自然语言大模型的适用场景有哪些 大模型的安全性需要从哪些方面展开评估和防护 训练智能客服系统大模型需要考虑哪些方面
应用场景 智能客服 在政企场景中,传统的智能客服系统常受限于语义泛化能力和意图理解能力,导致用户需求难以准确捕捉,频繁转接至人工客服。这不仅增加了企业的运营成本,也影响了用户体验。盘古大模型的引入为这一问题提供了有效解决方案。 盘古大模型通过将客户知识数据转换为向量并存储在向量数
网络、存储等资源划分成多个集群。一个Region中的多个AZ间通过高速光纤相连,以满足用户跨AZ构建高可用性系统的需求。 项目 华为云的区域默认对应一个项目,这个项目由系统预置,用来隔离物理区域间的资源(计算资源、存储资源和网络资源),以默认项目为单位进行授权,用户可以访问您账号
拥有用户OBS桶只读权限。 盘古用户角色 盘古大模型的用户可被赋予不同的角色,对平台资源进行精细化的控制。 表2 盘古用户角色 角色 说明 系统管理员 购买平台的用户默认为系统管理员,具有所有操作的权限。 运营人员 具备总览、平台管理(资产管理、权限管理)功能的权限。 模型开发人员 具备总览、服务
about chickens" == format2 自定义prompt # 按约定的格式准备prompt文件; # 文档结构和文件名参考提供的系统预置prompts文件 文档结构示例: …… prompts -- default -- documents
网页搜索 开启网页搜索后,可以通过调用web搜索来解决模型对于事实类问题回答不好的现象。 添加一个工具 用于拓展AI助手功能,使其能够与外部系统进行交互。可以直接创建一个工具,或者从搜索框中选择已经创建好的工具。 知识库 通过知识库提升AI助手在特定领域问题的回答效果。 高级配置 工具召回策略
用于控制生成文本中的重复程度。 词汇重复度控制 用于调整模型对频繁出现的Token的处理方式。 历史对话保留轮数 选择“多轮对话”功能时具备此参数,表示系统能够记忆的历史对话数。 父主题: 调用盘古大模型
使用的IaaS、PaaS和SaaS类云服务内部的安全以及对租户定制配置进行安全有效的管理,包括但不限于虚拟网络、虚拟主机和访客虚拟机的操作系统,虚拟防火墙、API网关和高级安全服务,各项云服务,租户数据,以及身份账号和密钥管理等方面的安全配置。 《华为云安全白皮书》详细介绍华为云
models”。 请在SDK中心获取最新的sdk包版本,替换示例中版本。 表1 安装推理SDK SDK语言 安装方法 Java 在您的操作系统中下载并安装Maven,安装完成后您只需要在Java项目的pom.xml文件中加入相应的依赖项即可。 <dependency> <groupId>com
后参考如下参数调试: 表3 推理核心参数设置 推理参数 设置值 最大Token限制(max_token) 4096 温度(temperature) 0.3 核采样(top_p) 1.0 话题重复度控制(presence_penalty) 0 部署推理服务后,可以采用人工评测的方案
选择盘古-NLP-N4系列模型时显示,配置最大Token长度。 服务名称 在线服务的名称。 描述 在线服务的简要描述。 订阅提醒 勾选订阅提醒,并添加手机号/邮箱,系统将在训练任务完成或重要事件发生时,发送提醒。 表2 部署实例量与推理单元数关系 模型类型 推理资源 盘古-NLP-N1系列模型 4K版本:
fewShotPromptTemplate.format(inputs); 自定义prompt // 按约定的格式准备prompt文件; // 文档结构和文件名参考提供的系统预置prompts文件 文档结构示例: …… prompts -- default -- documents
后参考如下参数调试: 表2 推理核心参数设置 推理参数 设置值 最大Token限制(max_token) 1024 温度(temperature) 0.3 核采样(top_p) 0.8 话题重复度控制(presence_penalty) 0 部署推理服务后,可以采用人工评测的方案
的服务。 模型效果优秀 经过海量数据训练,盘古大模型在各种自然语言处理任务中展现出卓越的性能。无论是文本分类、情感分析、机器翻译,还是问答系统,模型都能以高准确率完成任务,为用户提供高质量的输出结果。 这种卓越的表现源于其先进的算法和深度学习架构。盘古大模型能够深入理解语言的内在
历史对话保留轮数 选择要包含在每个新API请求中的过去消息数。这有助于为新用户查询提供模型上下文。参数设置为10,表示包括5个用户查询和5个系统响应。该参数只涉及多轮对话功能。 体验预置模型文本补全能力 进入“文本补全”页签,选择模型与示例,参数设置为默认参数,在输入框输入问题,单击“生成”,模型将基于问题进行回答。
历史对话保留轮数 选择要包含在每个新API请求中的过去消息数。这有助于为新用户查询提供模型上下文。参数设置为10,表示包括5个用户查询和5个系统响应。该参数只涉及多轮对话功能。 体验预置模型文本补全能力 进入“文本补全”页签,选择模型与示例,参数设置为默认参数,在输入框输入问题,单击“生成”,模型将基于问题进行回答。