检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
发不影响其他微服务。 通过隔离确保安全:整体应用中,若存在安全漏洞,会获得所有功能的权限。微服务架构中,若攻击了某个服务,只可获得该服务的访问权限,无法入侵其他服务。 隔离崩溃:如果其中一个微服务崩溃,其它微服务还可以持续正常运行。 业务需要微服务化改造,改动较大。 本教程以“方
CCE挂载文件存储卷 使用说明 符合标准文件协议:用户可以将文件系统挂载给服务器,像使用本地文件目录一样。 数据共享:多台服务器可挂载相同的文件系统,数据可以共享操作和访问。 私有网络:数据访问必须在数据中心内部网络中。 容量与性能:单文件系统容量较高(PB级),性能极佳(IO读写时延ms级)。
n)粒度的权限集。如果您已经进行了服务授权,可以一键进行权限优化,优化您授权的权限。 当您同意授权后,将在IAM中自动创建账号委托,将账号内的其他资源操作权限委托给华为云CCE服务和华为云AOM服务进行操作。关于委托详情,您可参考委托其他云服务管理资源进行了解。自动创建的委托如下:
19及以上版本的CCE Standard/Turbo集群,具体步骤请参见购买Standard/Turbo集群。 已安装Volcano插件,具体步骤请参见Volcano调度器。 约束与限制 该能力处于公测阶段,您可以体验相关特性,但稳定性暂未得到完全验证,不适用CCE服务SLA。 开启队列资源管理调度
24:/a/b/c。 检查Pod所在节点与需挂载的SFS Turbo文件系统间的网络是否打通。 在节点上执行如下指令,可测试SFS Turbo是否可以挂载。 mount -t nfs -o vers=3,nolock,noresvport {sfsturbo共享地址} /tmp SFS存储卷挂载异常
CCE Turbo支持为节点池上的Pod配置默认的安全组。适用于以下场景: 节点池维度的访问控制:如果您的业务是按照节点池维度划分的,您可以采用此方案进行节点池维度的安全访问控制,请结合您的业务合理规划不同节点池上的Pod默认安全组的安全规则。 扩展单个CCE Turbo集群的
弹性云服务器-虚拟机:使用虚拟化技术的弹性云服务器作为集群节点。 弹性云服务器-物理机:使用擎天架构的裸金属服务器作为集群节点。 裸金属服务器:使用传统裸金属服务器作为集群节点。选择数据盘时支持使用裸金属服务器自带的本地盘。 CCE Turbo集群支持以下类型: 弹性云服务器-虚
基于安全责任共担模式,CCE服务确保集群内控制节点和CCE自身组件的安全,并在集群、容器级别提供一系列的层次化的安全能力,而用户则负责集群Node节点的安全并遵循CCE服务提供的安全最佳实践,做好安全配置和运维。 关于CCE服务的安全责任共担模型详情请参见责任共担。 CCE服务的应用场景 云容
中心的说明请参见镜像中心。 共享镜像:可选择由其他账号共享的镜像。关于共享镜像的操作详情请参见共享私有镜像。 容器镜像服务 企业版:提供企业级的独享安全托管服务,支持镜像加签、镜像安全扫描,保障数据安全。 所属实例:选择企业版仓库实例,您需要提前购买一个企业版仓库,详情请参见购买仓库。
规模没有特殊要求的通用场景。 CCE Turbo集群 CCE Turbo集群是基于云原生基础设施构建的云原生2.0容器引擎服务,具备软硬协同、网络无损、安全可靠、调度智能的优势,为用户提供一站式、高性价比的全新容器服务体验。 CCE Turbo集群提供了面向大规模高性能的场景云原生2
时延,且成本较低,但是可用性略低于标准存储。 并行文件系统:并行文件系统(Parallel File System)是对象存储服务的子产品,是经过优化的高性能文件语义系统,主要应用于大数据场景。详细介绍请参见什么是并行文件系统。 关于对象存储的详细介绍,请以对象存储类别为准。 性能说明
容器网络模型对比 容器网络为集群内Pod分配IP地址并提供网络服务,CCE支持如下几种网络模型,您可在创建集群时进行选择。 云原生网络2.0模型是自研的新一代容器网络模型,深度整合了虚拟私有云VPC的弹性网卡(Elastic Network Interface,简称ENI)和辅助弹性网卡(Sub
if err != nil { return "", fmt.Errorf("error encrypting the password: %s", err) } return base64.StdEncoding.EncodeToS
150及以上、2.4.165以下时,自动更新密钥的能力仅支持并行文件系统;2.4.165及以上时同时支持并行文件系统和对象桶。 自动更新密钥的能力仅针对CCE容器存储(Everest)插件更新至特定版本(并行文件系统需要2.4.150及以上,对象桶需要2.4.165版本及以上)后新
动态扩缩容与多级缓存策略优化资源利用率。 AI服务部署 AI推理框架插件、AI推理网关插件、kagent插件联合组成了AI服务部署的框架。其中,AI推理服务框架使用API一键式拉起推理实例,具备弹性负载均衡、弹性扩缩容等关键能力,保障推理服务在云原生环境下高效运行。利用AI推理框架部署的推理实例,可通过AI推理网关(AI
分析结果 使用Java NIO建立Socket服务端,当客户端意外关闭的情况,不是发送指定指令通知服务器退出,就会产生此错误。 TCP健康检查的机制 ELB节点根据健康检查配置,向后端服务器(IP+健康检查端口)发送TCP SYN报文。 后端服务器收到请求报文后,如果相应的端口已经被正常监听,则会返回SYN+ACK报文。
Job进行批量调度。使用Volcano作为批调度器时,若无自建Volcano,建议安装Volcano调度器插件,具体请参见Volcano调度器。 服务端口 8080 表示Kuberay对外提供服务的端口,默认为8080。 单击“安装”。当该插件状态为“运行中”时,则说明插件安装成功。 组件说明 表4 Kuberay组件
时和该集群的原名同样不可以重复。 集群状态:当前集群的运行状态,详情请参见集群生命周期。 安全服务:当前集群是否开启主机安全服务。开启后,将该集群管理权限授权给主机安全服务委托,同时系统为集群内节点自动安装Agent,会占用部分资源。 免费安全体检报告:提供月度免费体检报告,识别
独立使用GPU卡,系统不会将该卡划分给其他容器使用。 共享模式:表示GPU共享调度,即多个容器可共享同一张物理GPU卡的计算资源和显存。 图1 GPU整卡 (可选步骤)如果需要为该工作负载指定GPU资源,请在“GPU显卡”处选择对应GPU资源。选择完成后,系统将根据资源类型让Po
则可以将具有特定标签的Pod驱逐,驱逐后的Pod将由用户或控制器决定是否重建并调度。这有助于降低业务中断时间,提升系统稳定性。 前提条件 已有Standard/Turbo集群,且版本在v1.27及以上。 集群中已有正常运行的NVIDIA GPU节点。 集群中已安装CCE AI套件(NVIDIA