前言
计算机软件技术发展到现在,软件架构的演进无不朝着让开发者能够更加轻松快捷地构建大型复杂应用的方向发展。容器技术最初是为了解决运行环境的不一致问题而产生的,随着不断地发展,围绕容器技术衍生出来越来越多的新方向。
最近几年,云计算领域不断地出现很多新的软件架构模式,其中有一些很热门的概念名词如:云原生、函数计算、serverless、servicemesh等等,而本文将初窥一下servicemesh的面纱。下面结合自己的理解尽量以通俗的话进行叙述。
背景和定义
微服务及服务治理
在微服务之前的软件开发中,往往通过一个应用的方式将所有的模块都包括进去,并一起编译、打包、部署、运维。这种方式存在很多问题,由于单个应用包含的东西太多,其中某个模块出现问题或者需要更新那么整个应用就需要重新部署。这种方式给开发和运维带来了很大的麻烦。随着应用的逐渐复杂,单个应用涉及的东西就会越来越多,慢慢地大家发现了其中很多的缺点,开始对服务进行划分,将一个大的应用按照不同的维度进行划分从而产生很多个小的应用,各应用之间会形成一个调用关系,每个小的应用由不同的开发负责,大家各自部署和运维,这样微服务就出现了。
由于微服务中各应用部署在不同的机器上,服务之间需要进行通信和协调,相比单个应用来说会麻烦很多。在同一个应用内不同方法之间的调用由于在相同的内存中,在代码编译打包时已经进行了链接,因此调用是可寻址且快速的。微服务下不同服务之间的调用涉及到不同进程或者机器之间的通信,一般需要通过第三方中间件的方式作为中介和协调,由于种种这些,面向微服务出现了很多中间件包括服务治理的框架。通过服务治理工具可以管理其接入的所有应用,使得服务之间的通信和协调更加简单高效。
容器及容器编排
最初容器技术是为了解决应用运行环境不一致的问题而出现的,避免在本地环境或者测试环境能够跑通,等发到生产环境却出现问题。通过容器将程序及其依赖一起打包到镜像中去,将程序的镜像在任何安装并运行了容器软件的机器上启动若干的容器,每个容器就是应用运行时的实例,这些实例一般拥有完全相同的运行环境和参数。使得不管在任何机器上应用都可以表现出一样的效果。这给开发、测试、运维带来了极大的便利,不再需要为不同机器上构建相同的运行环境而头大。且镜像可以push到镜像仓库,这使得应用可以进行很方便的迁移和部署。docker就是一个应用广泛的容器技术。目前越来越多的应用以微服务的方式并通过容器进行部署,给了软件开发极大的活力。
与微服务和服务治理的关系类似,越来越多的应用通过容器进行部署,使得集群上的容器数量急剧增加,通过人工的管理和运维这些容器已经变得很艰难且低效,为了解决诸多容器及容器之间的关系出现了很多编排工具,容器编排工具能够管理容器的整个生命周期。如docker官方出的docker-compose和docker swarm,这两个工具能实现批量容器的启动和编排,但功能较为简单,不足以支撑大型的容器集群。google基于内部大量的容器管理经验,开源出了kubernetes项目,kubernetes(k8s)是针对google集群上每周亿级别的容器而设计的,具有很强大的容器编排能力和丰富的功能。k8s通过定义了很多资源,这些资源以声明式的方式进行创建,可以通过json或者yaml文件表示一个资源,k8s支持多种容器,但主流的是docker容器,k8s提供了容器接入的相关标准,只要容器实现了该标准就可以被k8s所编排。由于k8s的功能较多,不在此一一叙述,有兴趣可以参考官方文档或者ata上搜索相关文章。
当某个公司的应用已经完全微服务化后,选择以容器的方式部署应用,此时可以在集群上部署k8s,通过k8s提供的能力进行应用容器的管理,运维可以也可以面向k8s进行工作。由于k8s是目前使用最广泛的容器编排工具,因此成为了容器编排的一个标准了,目前集团内部也有自己的容器和容器编排工具。
面向以k8s为代表的容器管理方式衍生出了一些新的技术。
云原生
最近两年云原生被炒的很火,可以在各处看到很多大佬对云原生的高谈阔论,下面直接抛出cncf对云原生的定义:
云原生技术有利于各组织在公有云、私有云和混合云等新型动态环境中,构建和运行可弹性扩展的应用。云原生的代表技术包括容器、服务网格、微服务、不可变基础设施和声明式api。这些技术能够构建容错性好、易于管理和便于观察的松耦合系统。结合可靠的自动化手段,云原生技术使工程师能够轻松地对系统作出频繁和可预测的重大变更。
在我看来,通过微服务的方式开发应用,以容器进行部署,使用k8s等容器编排工具进行容器集群的管理,使得开发运维都面向k8s,这就是云原生。云原生可以方便的构建应用,并对应用进行完整的监控,以及在应用针对不同流量时能进行快速的扩容和缩容。如下图:
云原生主要包括四个部分:
微服务
容器
持续集成和交付
devops
ps:总是觉得云原生这个叫法太抽象了,很难让人通过名字想到这是个啥东西。
servicemesh的定义
前面讲了微服务、容器、容器编排、云原生等,其实就是为了得出什么是servicemesh,自己总结了一下:sevicemesh是云原生下的微服务治理方案。
当我们通过微服务的方式将应用以容器的形式部署在k8s上后,服务之间调用和治理其实有新的方案,可以不需要依赖传统的微服务治理框架。servicemesh通过对每个应用在其pod中启动一个sidecar(边车)实现对应用的透明代理,所有出入应用的流量都先经过该应用的sidecar,服务之间的调用转变成了sidecar之间的调用,服务的治理转变成了对sidecar的治理。在servicemesh中sidecar是透明的,开发无感知的,之前一直觉得奇怪,总觉得一个应用要让别人发现它从而调用它,总得引入一些库然后进行主动的服务注册,不然啥都不做,别人咋知道这个应用的存在,为什么在servicemesh中就可以省去这些,做到对开发者完全地透明呢?这个的实现依赖于容器编排工具,通过k8s进行应用的持续集成和交付时,在启动应用pod后,其实已经通过yaml文件的形式向k8s注册了自己的服务以及声明了服务之间的关系,servicemesh通过和k8s进行通信获取集群上所有的服务信息,通过k8s这个中间者实现了对开发者的透明。如下图所示,是servicemesh的一个基本结构,包括数据平面和控制平面。
这种方式存在很多好处,我们可以发现在这种模式下应用的语言其实不会对整个服务治理过程有什么影响,对于servicemesh来说,它只关心pod或者说是pod中的容器实例,并不需要在乎容器中应用的实现语言是啥,sidecar和其负责的容器在同一个pod中。这样servicemesh就可以实现跨语言,这也是目前很多传统的服务治理框架的一大缺点,而且采用传统的服务治理,需要对应用引入大量的依赖,这样就会造成依赖之间的各种冲突,集团通过pandora对应用的各种依赖进行隔离。再者传统的服务治理门槛较高,需要开发者对整个架构有一定的了解,且发现问题排查较为麻烦。这也造成了开发和运维之间的界限不清,在servicemesh中开发只需要交付代码,运维可以基于k8s去维护整个容器集群。
发展现状
通过目前查阅的资料来看,servicemesh一词最早出现在2016年,最近两年被炒的很火,蚂蚁金服已经有了自己的一套完整的servicemesh服务框架--sofamesh,集团很多团队也在进行相应的跟进。
从历史发展的路线来看,程序的开发方式经历了很多的变化,但总的方向是变得越来越简单了,现在我们在集团内进行开发,可以很简单的构建一个支撑较大qps的服务,这得益于集团的整个技术体系的完整和丰富以及强大的技术积淀。
我们下面来看看应用开发到底经历了啥?
发展历史
主机直接阶段
如上图,这一阶段应该是最古老的阶段,两台机器通过网线直接连接,一个应用包含了你能想到的所有的功能,包括两台机器的连接管理,这时还没有网络的概念,毕竟只能和通过网线直接连接在一起的机器进行通信。
网络层的出现
如上图,随着技术的发展,网络层出现了,机器可以和通过网络连接的其他所有机器进行通信,不再限制于必须要网线直连两台机器。
集成到应用程序内部的流量控制
如上图,由于每个应用所在环境和机器配置不一样,接受流量的能力也不相同,当a应用发送的流量大于了b应用的接受能力时,那么无法接收的数据包必定会被丢弃,这时就需要对流量进行控制,最开始流量的控制需要应用自己去实现,网络层只负责接收应用下发的数据包并进行传输。
流量控制转移到网络层
如上图,慢慢地大家发应用中的网络流量控制是可以转移到网络层的,所以网络层中的流量控制出现了,我想大概就是指tcp的流量控制吧,这样还能保证可靠的网络通信。
应用程序的中集成服务发现和断路器
如上图,开发者通过在自己的代码模块中实现服务发现和断路器。
专门用于服务发现和断路器的软件包/库
如上图,开发者通过引用第三方依赖去实现服务发现和断路器。
出现了专门用于服务发现和断路器的开源软件
如上图,基于各种中间件去实现服务发现和断路器。
servicemesh出现
最终到了现在,servicemesh大法诞生,进一步解放了生产力,提高了软件整个生命周期的效率。
servicemesh市场竞争
虽然直到2017年底,servicemesh才开始较大规模被世人了解,这场微服务市场之争也才显现,但是其实servicemesh这股微服务的新势力,早在 2016年初就开始萌芽:2016年1月,离开twitter的基础设施工程师william morgan和oliver gould,在github上发布了linkerd 0.0.7版本,业界第一个servicemesh项目就此诞生。linkerd基于twitter的finagle开源项目,大量重用了finagle的类库,但是实现了通用性,成为了业界第一个servicemesh项目。而envoy是第二个servicemesh项目,两者的开发时间差不多,在2017年都相继成为cncf项目。2017年5月24日,istio 0.1 release版本发布,google和ibm高调宣讲,社区反响热烈,很多公司在这时就纷纷站队表示支持istio。linkerd的风光瞬间被盖过,从意气风发的少年一夜之间变成过气网红。当然,从产品成熟度上来说,linkerd作为业界仅有的两个生产级servicemesh实现之一,暂时还可以在istio成熟前继续保持市场。但是,随着istio的稳步推进和日益成熟,外加第二代servicemesh的天然优势,istio取代第一代的linkerd只是个时间问题。自从在2016年决定委身于istio之后,envoy就开始了一条波澜不惊的平稳发展之路,和linkerd的跌宕起伏完全不同。在功能方面,由于定位在数据平面,因此envoy无需考虑太多,很多工作在istio的控制平面完成就好,envoy从此专心于将数据平面做好,完善各种细节。在市场方面,envoy和linkerd性质不同,不存在生存和发展的战略选择,也没有正面对抗生死大敌的巨大压力。从google和ibm联手决定推出istio开始,istio就注定永远处于风头浪尖,无论成败,istio面世之后,赞誉不断,尤其是servicemesh技术的爱好者,可以说是为之一振:以新一代servicemesh之名横空出世的istio,对比linkerd,优势明显。同时产品路线图上有一大堆令人眼花缭乱的功能。假以时日,如果istio能顺利地完成开发,稳定可靠,那么这会是一个非常美好、值得憧憬的大事件,
istio介绍
istio是目前最热的servicemesh开源项目,istio主要分为两个部分:数据平面和控制平面。istio实现了云原生下的微服务治理,能实现服务发现,流量控制,监控安全等。istio通过在一个pod里启动一个应用和sidecar方式实现透明代理。istio是一个拓展性较高的框架,其不仅可以支持k8s,还可以支持其他如mesos等资源调度器。如下图所示,为istio的整体架构:
逻辑上分为数据平面(上图中的上半部分)和控制平面(上图中的下半部分)。
数据平面由一组以 sidecar 方式部署的智能代理(envoy)组成。这些代理可以调节和控制微服务及 mixer 之间所有的网络通信。
控制平面负责管理和配置代理来路由流量。此外控制平面配置 mixer 以实施策略和收集遥测数据。
pilot是整个架构中的抽象层,将对接k8s等资源调度器的步骤进行抽象并以适配器的形式展现,并和用户以及sidecar交互。
galley负责资源配置为验证。
citadel用于生成身份,及密钥和证书管理
核心功能包括流量控制、安全控制、可观测性、多平台支持、可定制化。
mixer
mixer同样是一个可拓展的模块,其负责遥感数据的采集以及集成了一些后端服务(baas),sidecar会不断向mixer报告自己的流量情况,mixer对流量情况进行汇总,以可视化的形式展现,此外sidecar可以调用mixer提供的一些后端服务能力,例如鉴权、登录、日志等等,mixer通过适配器的方式对接各种后端服务。
in-process adapter形式
之前版本的isito采用这种将后端服务适配器集成在mixer内部的形式,这种方式会有一个问题,就是某个后端服务适配器出现问题即会影响整个mixer模块,但由于适配器和mixer集成在一起,在同一个进程内,方法的调用会很快。
out-of-process adapter形式
目前版本的istio将adapter移到mixer外部,这样可以实现mixer与adapter的解耦,当adapter出现问题并不会影响mixer,但这种方式同样也存在问题,即adapter在mixer外,是两个不同的进程,二者之间的调用是通过rpc的方式,这种方式比同进程内部的方法调用会慢很多,因此性能会受到影响。
pilot
envoy api负责和envoy的通讯, 主要是发送服务发现信息和流量控制规则给envoy。
abstract model 是 pilot 定义的服务的抽象模型, 以从特定平台细节中解耦, 为跨平台提供基础。
platform adapter则是这个抽象模型的实现版本, 用于对接外部的不同平台如k8s/mesos等。
rules api提供接口给外部调用以管理 pilot, 包括命令行工具istioctl以及未来可能出现的第三方管理界面。
galley
galley 原来仅负责进行配置验证, 1.1 后升级为整个控制面的配置管理中心, 除了继续提供配置验证功能外, galley还负责配置的管理和分发, galley 使用 网格配置协议(mesh configuration protocol) 和其他组件进行配置的交互.
istio 创造了50多个crd, 其复杂度可见一斑, 所以有人说面向k8s编程近似于面向yaml编程.早期的galley 仅仅负责对配置进行运行时验证, istio 控制面各个组件各自去list/watch 各自关注的配置。越来越多且复杂的配置给istio用户带来了诸多不便, 主要体现在:
配置的缺乏统一管理, 组件各自订阅, 缺乏统一回滚机制, 配置问题难以定位。
配置可复用度低, 比如在1.1之前, 每个mixer adpater 就需要定义个新的crd。
配置的隔离, acl 控制, 一致性, 抽象程度, 序列化等等问题都还不太令人满意
随着istio功能的演进, 可预见的istio crd数量还会继续增加, 社区计划将galley 强化为istio配置控制层, galley 除了继续提供配置验证功能外, 还将提供配置管理流水线, 包括输入, 转换, 分发, 以及适合istio控制面的配置分发协议(mcp)。
citadel
将服务拆分为微服务之后,在带来各种好处的同时,在安全方面也带来了比单体时代更多的需求,毕竟不同功能模块之间的调用方式从原来单体架构中的方法调用变成了微服务之间的远程调用:
加密:为了不泄露信息,为了抵御中间人攻击,需要对服务间通讯进行加密。
访问控制:不是每个服务都容许被任意访问,因此需要提供灵活的访问控制,如双向 tls 和细粒度的访问策略。
审计:如果需要审核系统中哪些用户做了什么,则需要提供审计功能。
citadel 是 istio 中负责安全性的组件,但是 citadel 需要和其他多个组件配合才能完成工作:
citadel:用于密钥管理和证书管理,下发到envoy等负责通讯转发的组件。
envoy:使用从citadel下发而来的密钥和证书,实现服务间通讯的安全,注意在应用和envoy之间是走localhost,通常不用加密。
pilot:将授权策略和安全命名信息分发给envoy。
mixer:负责管理授权,完成审计等。
istio支持的安全类功能有:
流量加密:加密服务间的通讯流量。
身份认证:通过内置身份和凭证管理可以提供强大的服务间和最终用户身份验证,包括传输身份认证和来源身份认证,支持双向tls。
授权和鉴权:提供基于角色的访问控制(rbac),提供命名空间级别,服务级别和方法级别的访问控制。
作者信息:彭家浩,花名毅忻,阿里巴巴淘系技术部开发工程师,热爱云计算。
原文链接
本文为云栖社区原创内容,未经允许不得转载
三星C5评测 有诚意的中国特供
工信部下一步将推动我国通信技术与实体经济深度融合
电脑显示部分相关故障判断
来也科技RPA机器人助力提升地产业管理效益
陀螺仪传感器工作原理_陀螺仪传感器的应用
Service Mesh 初体验
MSP430单片机中的WDT研究
戴尔宣布推出新UltraSharp显示器
柔宇发布了FlexPai 2折叠屏手机,8+256GB版售价仅9988元
全面认识MOS管,一篇文章就够了
USB4 2.0线缆预计年内推出,传输速度翻倍至80Gbps
一加5什么时候上市?一加手机5最新消息:一加5手机外观、配置、跑分或已确定,8GB运存加持
介绍应用于智能交通行业的zigbee通讯方案
基于FPGA芯片HMAC_SHA1_96计算术运算单元的硬件设计
什么是物联网和物联网架构
智信通|用最好的科技手段为汽车金融保驾护航!
安泰电子:ATA-M110高频功率放大模块技术参数
信步科技SV6-E6614车载3G主板规格
滴滴出行走向世界_在墨尔本推出滴滴快车服务
摩尔线程:全功能GPU为未来元宇宙计算提供综合算力