openstack object storage(swift)是openstack开源云计算项目的子项目之一,被称为对象存储,提供了强大的扩展性、冗余和持久性。本文将从架构、原理和实践等几方面讲述swift。 swift并不是文件系统或者实时的数据存储系统,它称为对象存储,用于永久类型的静态数据的长期存储,这些数据可以检索、调整,必要时进行更新。最适合存储的数据类型的例子是虚拟机镜像、图片存储、邮件存储和存档备份。因为没有中心单元或主控结点,swift提供了更强的扩展性、冗余和持久性。swift前身是rackspace cloud files项目,随着rackspace加入到openstack社区,于2010年7月贡献给openstack,作为该开源项目的一部分。swift目前的最新版本是openstack essex 1.5.1。
新浪sae团队对swift有将近一年的研究和运营经验。在深入剖析swift架构和原理、完全掌握swift源码,并且经过一段时间的测试和运营之后,我们决定将推出基于swift的sae storage服务。目前,已完成开发,并于一个月前开始线上运行,且表现非常出色。因此,下面将分享一下我们在swift上的一些研究和工作。
swift特性
在openstack官网中,列举了swift的20多个特性,其中最引人关注的是以下几点。
极高的数据持久性
一些朋友经常将数据持久性(durability)与系统可用性(availability)两个概念混淆,前者也理解为数据的可靠性,是指数据存储到系统中后,到某一天数据丢失的可能性。例如amazon s3的数据持久性是11个9,即如果存储1万(4个0)个文件到s3中,1千万(7个0)年之后,可能会丢失其中1个文件。那么swift能提供多少个9的sla呢?下文会给出答案。针对swift在新浪测试环境中的部署,我们从理论上测算过,swift在5个zone、5×10个存储节点的环境下,数据复制份是为3,数据持久性的sla能达到10个9。
完全对称的系统架构
“对称”意味着swift中各节点可以完全对等,能极大地降低系统维护成本。
无限的可扩展性
这里的扩展性分两方面,一是数据存储容量无限可扩展;二是swift性能(如qps、吞吐量等)可线性提升。因为swift是完全对称的架构,扩容只需简单地新增机器,系统会自动完成数据迁移等工作,使各存储节点重新达到平衡状态。
无单点故障
在互联网业务大规模应用的场景中,存储的单点一直是个难题。例如数据库,一般的ha方法只能做主从,并且“主”一般只有一个;还有一些其他开源存储系统的实现中,元数据信息的存储一直以来是个头痛的地方,一般只能单点存储,而这个单点很容易成为瓶颈,并且一旦这个点出现差异,往往能影响到整个集群,典型的如hdfs。而swift的元数据存储是完全均匀随机分布的,并且与对象文件存储一样,元数据也会存储多份。整个swift集群中,也没有一个角色是单点的,并且在架构和设计上保证无单点业务是有效的。
简单、可依赖
简单体现在架构优美、代码整洁、实现易懂,没有用到一些高深的分布式存储理论,而是很简单的原则。可依赖是指swift经测试、分析之后,可以放心大胆地将swift用于最核心的存储业务上,而不用担心swift捅篓子,因为不管出现任何问题,都能通过日志、阅读代码迅速解决。
应用场景
swift提供的服务与amazon s3相同,适用于许多应用场景。最典型的应用是作为网盘类产品的存储引擎,比如dropbox背后就是使用amazon s3作为支撑的。在openstack中还可以与镜像服务glance结合,为其存储镜像文件。另外,由于swift的无限扩展能力,也非常适合用于存储日志文件和数据备份仓库。
swift架构概述
swift主要有三个组成部分:proxy server、storage server和consistency server。其架构如图1所示,其中storage和consistency服务均允许在storage node上。auth认证服务目前已从swift中剥离出来,使用openstack的认证服务keystone,目的在于实现统一openstack各个项目间的认证管理。
图1 swift部署架构
主要组件
proxy server
proxy server是提供swift api的服务器进程,负责swift其余组件间的相互通信。对于每个客户端的请求,它将在ring中查询account、container或object的位置,并且相应地转发请求。proxy提供了rest-full api,并且符合标准的http协议规范,这使得开发者可以快捷构建定制的client与swift交互。
storage server
storage server提供了磁盘设备上的存储服务。在swift中有三类存储服务器:account、container和object。其中container服务器负责处理object的列表,container服务器并不知道对象存放位置,只知道指定container里存的哪些object。这些object信息以sqlite数据库文件的形式存储。container服务器也做一些跟踪统计,例如object的总数、container的使用情况。
consistency servers
在磁盘上存储数据并向外提供rest-ful api并不是难以解决的问题,最主要的问题在于故障处理。swift的consistency servers的目的是查找并解决由数据损坏和硬件故障引起的错误。主要存在三个server:auditor、updater和replicator。 auditor运行在每个swift服务器的后台持续地扫描磁盘来检测对象、container和账号的完整性。如果发现数据损坏,auditor就会将该文件移动到隔离区域,然后由replicator负责用一个完好的拷贝来替代该数据。图2给出了隔离对象的处理流图。 在系统高负荷或者发生故障的情况下,container或账号中的数据不会被立即更新。如果更新失败,该次更新在本地文件系统上会被加入队列,然后updaters会继续处理这些失败了的更新工作,其中由account updater和container updater分别负责account和object列表的更新。 replicator的功能是处理数据的存放位置是否正确并且保持数据的合理拷贝数,它的设计目的是swift服务器在面临如网络中断或者驱动器故障等临时性故障情况时可以保持系统的一致性。
图2 隔离对象的处理流图
ring
ring是swift最重要的组件,用于记录存储对象与物理位置间的映射关系。在涉及查询account、container、object信息时,就需要查询集群的ring信息。 ring使用zone、device、partition和replica来维护这些映射信息。ring中每个partition在集群中都(默认)有3个replica。每个partition的位置由ring来维护,并存储在映射中。ring文件在系统初始化时创建,之后每次增减存储节点时,需要重新平衡一下ring文件中的项目,以保证增减节点时,系统因此而发生迁移的文件数量最少。
原理
swift用到的算法和存储理论并不复杂,主要有几下几个概念。
一致性哈希算法
swift利用一致性哈希算法构建了一个冗余的可扩展的分布式对象存储集群。swift采用一致性哈希的主要目的是在改变集群的node数量时,能够尽可能少地改变已存在key和node的映射关系。 该算法的思路分为以下三个步骤。 首先计算每个节点的哈希值,并将其分配到一个0~232的圆环区间上。其次使用相同方法计算存储对象的哈希值,也将其分配到这个圆环上。随后从数据映射到的位置开始顺时针查找,将数据保存到找到的第一个节点上。如果超过232仍然找不到节点,就会保存到第一个节点上。 假设在这个环形哈希空间中存在4台node,若增加一台node5,根据算法得出node5被映射在node3和node4之间,那么受影响的将仅是沿node5逆时针遍历到node3之间的对象(它们本来映射到node4上)。其分布如图3所示。
图3 一致性哈希环结构
replica
如果集群中的数据在本地节点上只有一份,一旦发生故障就可能会造成数据的永久性丢失。因此,需要有冗余的副本来保证数据安全。swift中引入了replica的概念,其默认值为3,理论依据主要来源于nwr策略(也叫quorum协议)。 nwr是一种在分布式存储系统中用于控制一致性级别的策略。在amazon的dynamo云存储系统中,使用了nwr来控制一致性。其中,n代表同一份数据的replica的份数,w是更新一个数据对象时需要确保成功更新的份数;r代表读取一个数据需要读取的replica的份数。 公式w+r>n,保证某个数据不被两个不同的事务同时读和写;公式w>n/2保证两个事务不能并发写某一个数据。 在分布式系统中,数据的单点是不允许存在的。即线上正常存在的replica数量为1的情况是非常危险的,因为一旦这个replica再次出错,就可能发生数据的永久性错误。假如我们把n设置成为2,那么只要有一个存储节点发生损坏,就会有单点的存在,所以n必须大于2。n越高,系统的维护成本和整体成本就越高。工业界通常把n设置为3。例如,对于mysql主从结构,其nwr数值分别是n= 2, w = 1, r = 1,没有满足nwr策略。而swift的n=3, w=2, r=2,完全符合nwr策略,因此swift系统是可靠的,没有单点故障。
zone
如果所有的node都在一个机架或一个机房中,那么一旦发生断电、网络故障等,都将造成用户无法访问。因此需要一种机制对机器的物理位置进行隔离,以满足分区容忍性(cap理论中的p)。因此,ring中引入了zone的概念,把集群的node分配到每个zone中。其中同一个partition的replica不能同时放在同一个node上或同一个zone内。注意,zone的大小可以根据业务需求和硬件条件自定义,可以是一块磁盘、一台存储服务器,也可以是一个机架甚至一个idc。
weight
ring引入weight的目的是解决未来添加存储能力更大的node时,分配到更多的partition。例如,2tb容量的node的partition数为1tb的两倍,那么就可以设置2tb的weight为200,而1tb的为100。
图4 一种swift部署集群
实例分析
图4中是新浪sae在测试环境中部署的swift集群,集群中又分为5个zone,每个zone是一台存储服务器,每台服务器上由12块2tb的sata磁盘组成,只有操作系统安装盘需要raid,其他盘作为存储节点,不需要raid。前面提到过,swift采用完全对称的系统架构,在这个部署案例中得到了很好的体现。图4中每个存储服务器的角色是完全对等的,系统配置完全一样,均安装了所有swift服务软件包,如proxy server、container server和account server等。上面的负载均衡(load balancer)并不属于swift的软件包,出于安全和性能的考虑,一般会在业务之前挡一层负载均衡设备。当然可以去掉这层代理,让proxy server直接接收用户的请求,但这可能不太适合在生产环境中使用。 图4中分别表示了上传文件put和下载文件get请求的数据流,两个请求操作的是同一个对象。上传文件时,put请求通过负载均衡随机挑选一台proxy server,将请求转发到后者,后者通过查询本地的ring文件,选择3个不同zone中的后端来存储这个文件,然后同时将该文件向这三个存储节点发送文件。这个过程需要满足nwr策略(quorum protocol),即3份存储,写成功的份数必须大于3/2,即必须保证至少2份数据写成功,再给用户返回文件写成功的消息。下载文件时,get请求也通过负载均衡随机挑选一台proxy server,后者上的ring文件能查询到这个文件存储在哪三个节点中,然后同时去向后端查询,至少有2个存储节点“表示”可以提供该文件,然后proxy server从中选择一个节点下载文件。
小结
swift简单、冗余、可扩展的架构设计保证了它能够用于iaas的基础服务。在rackspace cloud files服务两年的运行积累使得swift代码变得越来越成熟,目前已部署在全球各地的公有云、私有云服务中。随着openstack的不断完善和发展,swift将得到更广泛的应用。
新款iPhone 11曝光将会继续采用刘海设计背部搭载了浴霸三摄
曙光StackCube解决方案助力金融数智化
边沿触发器怎么看
磁保持继电器选用_磁保持继电器作用
AS-i总线技术应用实例
OpenStack Swift架构详解
FLIR推出“黑黄蜂”个人侦察系统 可提升陆军分队的监视和侦察能力
为什么HTCOneM9被称为史上第三难拆的手机
普及智慧城市,RISC处理器架构是关键
电动牙刷品牌排行榜_国产声波牙刷品牌排行
数字电路该怎么学_数字电路的学习方法(要点、注意事项)
VR体验式交通安全教育,保障人们安全文明出行
现代汽车回应与苹果合作造车传闻
星光世界,涂鸦未来!2023智慧商业伙伴大会隆重召开
SoC中的低功耗RF设计解析
数字零售技术的十大创新,为消费者创造更好地购物体验
四腿能快速移动的节能机器人:每小时能移动1000米,或用于制造高级假肢
555集成电路的简易光电控制器电路
低成本DC/DC转换器34063的应用(图)
F1与亚马逊在线播放其大奖赛的流媒体协议“积极”谈判