Service Mesh 发展趋势(续) 蚂蚁金服 | 骑士到中盘路向何方?
区 关心的Mixer v2,以及我个人看到的一些业界新的技术方向, 如web assembly技术,还有产品形态上的创新,如google traffic director对servicemesh的虚拟机形态的创新支持。 在ServiceMesh出道四年之际,也希望和大家一起带 着问题来对ServiceMesh未来的发展进行一些深度思 考。 标题中续字的缘由Part 0:灵魂拷问 你是什么垃圾? 目前放在envoy的下一个milestone 1.12中Part 3:ServiceMesh灵魂拷问三:要不要支持虚拟机? 有了高大上的容器/k8s/云原生, 还要不要支持土里土气的 虚拟机?Part 3:ServiceMesh灵魂拷问三:要不要支持虚拟机? Google Traffic Director 支持虚拟机,而且可以 虚拟机和容器相互访问 Linkerd 1.* 天然支持 Envoy 天然支持 Istio 开始准备支持,后 来实质性取消,基 本只有k8s好用 Linkerd 2.0 只支持k8s AWS app mesh 支持虚拟机,而且 可以虚拟机和容器 相互访问 ServiceMesh主流产品对虚拟机的支持情况Part 3:ServiceMesh灵魂拷问三:要不要支持虚拟机? Linkerd 1.* Envoy App Mesh Traffic Director Istio Linkerd0 码力 | 43 页 | 2.90 MB | 5 月前3副本如何用CLup管理PolarDB
安装要求 需要有共享盘:盘的大小需要大于等于20GB CLup的高可用需要VIP 操作系统:CentOS7.X 盘要求有路径:/dev/nvmeXnY 机器需求 4台虚拟机器或物理机 1台做CLup管理节点:内存大于2GB 3台做数据库节点:内存需要大于4GB,最好有反亲和性,即能分布在不同的 物理机上以保证高可用性阿里云的环境中创建Polardb的方法 • 华北2(北京)可用区K • 华南1(深圳)可用区F。 只有某些规格的虚拟机可以挂载Nvme共享盘: • g7se • c7se • r7se 虚拟机要求是按量付费才可以挂载Nvme共享盘 阿里云的VIP功能目前还在内侧阶段,需要申请其他云环境中使用CLup创建Polardb的情况 天翼云 共享盘:所有虚拟机都 可以挂载 有VIP 机器有反亲和性 华为云 有共享盘 机器有反亲和性 移动云 共享盘:所有虚拟机都 可以挂载 有VIP 机器有弱反亲和性 腾讯云 无共享盘 VIP是内测阶段 机器的反亲和性:不清 楚 联通云 无共享盘 有VIP 机器有反亲和性创建PolarDB需要的阿里云环境 创建虚拟机的时 候选中的盘都不 是共享盘,必须 在创建完虚拟机 后,在单独添加 共享盘 注意创建PolarDB0 码力 | 34 页 | 3.59 MB | 5 月前325-云原生应用可观测性实践-向阳
Networks Technology Co., Ltd. All rights reserved. 实战8:怎样打标签 容 器 云 资源池 区域 可用区 虚拟化 宿主机 虚拟机 云服务 RDS Redis 容器 容器集群 容器节点 命名空间 容器服务 Ingress Deployment StatefulSet ReplicaSet POD 应用 业务 资源组 服务名 方法名 全栈混合云:KVM 宿主机+容器 K8S 虚拟机Node vSwitch DeepFlow 采集器进程 业务 POD 业务 POD 采集 POD br 业务 POD 全栈混合云:KVM 宿主机+容器 K8S 虚拟机Node vSwitch DeepFlow 采集器进程 业务 POD 业务 POD 采集 POD br 业务 POD 网关 1 2 3 5 6 7 4 容器-虚拟机-NFV网关 全栈链路追踪能力0 码力 | 39 页 | 8.44 MB | 5 月前3Comprehensive Rust(简体中文) 202412
CPU 中的异常级别,x86 中的铃声级 别)的功能,而应用处理器则具备这些功能。 • QEMU 支持针对每种架构模拟不同的机器或板级模型。 “虚拟”开发板并不适用于任何特定的真实 硬件,而是专为虚拟机设计的。 53.1 准备使用 Rust 在开始运行 Rust 代码之前,我们需要进行一些初始化设置。 .section .init.entry, "ax" .global entry entry: 以防止编译器生成非对齐访问,因此在本例中应该没有问题,但一般情 况下并不一定如此。 – 如果是在虚拟机中运行该命令,可能会导致缓存一致性问题。问题在于,虚拟机是在禁用缓存 的情况下直接访问内存,而主机具有同一内存的缓存别名。即使主机并没有明确访问该内存, 推测性访问仍然会导致缓存被填充,然后在清除缓存或虚拟机启用缓存时,任何一方对于该内 存进行的更改就会丢失。 (使用物理地址来键控缓存,而 VA 或 IPA。) 确实会提及引用,但这很不安全。只要存在引用,编译 器就会选择对其进行解引用操作。 • 使用 addr_of! 宏可以从结构体指针中获取结构体字段的指针。 53.4 编写 UART 驱动程序 QEMU“虚拟机”具有 PL011 UART,现在为其编写驱动程序。 const FLAG_REGISTER_OFFSET: usize = 0x18; const FR_BUSY: u8 = 1 << 3; const0 码力 | 359 页 | 1.33 MB | 10 月前3sealos 以 kubernetes 为内核的云操作系统
我经久不衰 我一锅大杂烩 我高内聚高抽象 我装起来都费劲 我一键安装 我运行起来一堆问题 我小白都能稳定运行 我一堆模块 我大道至简海纳百川 不求最好,但求最贵 优秀还便宜 你真的需要虚拟机?真的需要 IaaS 层? PaaS SaaS 有本质区别?鸭式辩型忘记了? 云里面,一切皆应用才是王道。 系统架构与设计理念 通用的系统管理入口 所有应用自由安装卸载 极简、高内聚、高度抽象 麒麟 欧拉 ARM 裸金属/云服务器/私有云虚拟机 x86 除了 kubelet 其他都跑容器里 为了更好的兼容性,不用系统依赖如rpm 只 依赖内核如 systemd 借助集群镜像能力自动识别系统架构 自己实现控制器对接公有云对比其他方案 ,且不触发 API 调用限制 Apply 了这连个 yaml 就会自动在各种公有云上启动 虚拟机并按照要求安装好 Kubernetes 以上其他应用0 码力 | 29 页 | 7.64 MB | 9 月前3Nacos架构&原理
Nacos 生态 < 148 Nacos 服务网格⽣态 背景 在传统的基于虚拟机的部署方式中,运维人员需要手动上传应用程序压缩包到虚拟机上,经过解压、 安装和运行等⼀系列操作之后才能完成应用发布。除了需要手动部署之外,运维人员还要时刻关注 虚拟机资源分布和容量情况,不同的业务应用需要人工分配并部署在资源充足的虚拟机上。在如今 云原生时代,基础设施平台 Kubernetes 对底层资源 (计算、储存、网络)进行了统⼀抽象,为应 缓存,过期后才会刷新数据。 部分厂商不遵循 TTL 时间缓存,超过 24 小时的缓存时间。 服务器: 服务器开启 nscd 做 DNS 缓存。 业务进程: 应用的 DNS 缓存,比如 Java 虚拟机、框架层的 DNS 缓存。 以上四种情况会比较影响 DNS 的变更生效流程,下图是我们现有的 DNS 变更生效流程: Nacos 最佳实践 < 254 整体上相对简单,只要业务进程这边将自己内部的 生产环境用的是虚拟机,快速还原现场的方法是:直接克隆生产环境 Nacos 所在的机器,用于环境 搭建。然后用带缓存的包,按照操作步骤重现。 复现时 Nacos Server 版本是 1.1.4,而 Nacos Client 端是 1.2.1 版本或者其它大于 1.1.4 的版本。 经过测试开发和运维的操作,成功复现生产环境 Nacos Server 升级失败的场景。 通过快速克隆虚拟机的方式,问0 码力 | 326 页 | 12.83 MB | 9 月前336-云原生监控体系建设-秦晓辉
Kubernetes控制面组件监控 • Kubernetes资源对象的监控 • Pod内的业务应用的监控 • 业务应用依赖的中间件的监控 云原生之后监控需求的 变化 云原生之后监控需求的变化 •相比物理机虚拟机时代,基础设施动态化,Pod销毁重建非常频繁 •原来使用资产视角管理监控对象的系统不再适用 •要么使用注册中心来自动发现,要么就是采集器和被监控对象通过sidecar模式捆绑一体 指标生命周期变短 框架层面内置,减轻各个研发团队的使用成本 Pod内的业务应用的监控 - statsd 数据流向 • 推荐做法:如果是容器环境,Pod 内 sidecar 的方式部署 statsd;如果是物理机虚拟机环境,每个机器上部署一 个 statsd 的 agent,接收到数据之后统一推给服务端 Pod-001 业务 容器 agent Pod-002 业务 容器 agent 监控服0 码力 | 32 页 | 3.27 MB | 5 月前322-云原生的缘起、云原生底座、PaaS 以及 Service Mesh 等之道-高磊
化或被容器化,那么现在阶段来看,整个 数字化转型的一些困难就是处于在技术上的碎片化,为云原生彻底发挥对极端变化的适应性价值还有很多障碍。 在统一的K8s管理面下, 通过一种代理容器(内置 了管理虚拟机的逻辑) 来启动虚拟化Pod, 此时可以同时在统一的 容器云平台下运行微服 务化容器化或者未容器 化的传统软件了; 另一个方向是,将底层计 算、存储和网络进行超融 合,提供极其简单的底层 运维能力,进一步简化云 导 致Mesh想做为统一的服务治理界面变得非常困难,UDPA为我们开了一个口子,阿里ASM做出领先业界的尝试 ASM在统一控制面 的基础上,基于 UDPA的原理,为不 同环境(不同类型容 器或者虚拟机)打通 了网络基础设施, 在此基础上定制化 了不同的数据面代 理,并进一步通过 K8S的资源抽象能力 可以纳管多云形态 的资源层,形成了 一个基于云原生理 念的大一统服务网 格架构。 背后的逻辑是:0 码力 | 42 页 | 11.17 MB | 5 月前305-MoonBit 编程语言(WASM 技术)服务端应用展望以及对Kubernetes生态的影响
关注点分离(1) 高级语言代码 (高级语言层面提供 内部互联与模块化) WASM 部署文件 (将指令集限制在 WASM 1.0 和有限几 个扩展的限度) 后端运行时 (WASM虚拟机 基础的指令集) 构建 内部 互联 运行 调试 信息 高级语言引擎 (运行时提供 GC、 Globals 等扩展功能) 关注点分离(2) 高级语言标准库 后端运行时 标准化SI0 码力 | 30 页 | 3.41 MB | 9 月前3Service Mesh 高可用在企业级生产中的实践
& Service Mesh7/总页数 运行时支撑服务 • 服务注册中心 • 服务网关 • 配置中心 混合微服务的互联互通 目标 • 互联互通 • 平滑迁移 • 灵活演进 环境 • 虚拟机 • Kubernetes8/总页数 混合微服务的互联互通 百度智能云 CNAP 混合微服务架构图 • Spring Cloud • Service Mesh9/总页数 注册中心与高可用方案0 码力 | 38 页 | 1.38 MB | 5 月前3
共 38 条
- 1
- 2
- 3
- 4