Facebook数据中心实践分析,OCP主要工作成果介绍

Facebook数据中心实践分析,OCP主要工作成果介绍

     

摘要:用讲故事的方式重点介绍了Facebook在数据中心方面的实践,其成立开放计算项目(OCP)以来的主要工作成果。


以下为正文:

保密本就是数据中心行业的惯例。2014年11月,我独自去拉斯维加斯(Las Vegas)南部参观SuperNAP数据中心。下车后,几次试图用手机拍建筑外景,迅速被开着悍马巡逻的警卫阻止。进门等候预约时段,虽说在美国警卫持枪是再平常不过的事,但警卫室里那几位严阵以待、随时准备应付劫匪的架势,仍令我印象深刻。参观数据中心内部不允许拍照是行规,不过之前我参观数据中心都有专人陪同,还没享受过这么戒备森严的待遇。

Facebook数据中心实践分析,OCP主要工作成果介绍 图注:SuperNAP 7数据中心的接待室,我在这里等了20多分钟,得以观察小窗子里面的警卫室。图片来自SuperNAP官网,下同

这与托管数据中心的性质不无关系,必须为租户保密。自为客户的Google则将基础设施视为核心竞争力之一,这从该公司对基础设施一贯的重视程度也能感受到。因此,Google长期对其数据中心和定制硬件设计秘而不宣,员工入职时要签署保密协议,离开Google一两年内也不能透露。

Facebook数据中心实践分析,OCP主要工作成果介绍

图注:夜幕下的SuperNAP 7数据中心,典型的美式大平层结构

但是,那些Google自己公开的数据中心内外景照片,又是怎么回事/p>

2009年3月,Facebook从Google挖来工作近6年(更早在思科做过实习生)的硬件工程师Amir Michael,主管硬件设计。2010年4月1日,Facebook宣布任命Ken Patchett主管其位于俄勒冈(Oregon)州Prineville的第一个自建数据中心。Ken Patchett的职业生涯从康柏(Compaq)起步,在微软积累了近6年的数据中心和网络运营经验。到Google后指导过位于俄勒冈州Dalles的数据中心,去Facebook之前又在亚洲工作了一年多,管理Google自有和托管的数据中心。转了一圈,又回到俄勒冈州。

Facebook数据中心实践分析,OCP主要工作成果介绍 图注:SuperNAP数据中心的警卫室

从服务器设计到数据中心运营,Facebook坚持挖Google墙角,后者又不好打官司——这意味着要公开更多细节。更绝的还在后面:2011年4月,乘Prineville数据中心投产之东风,Facebook宣布发起开放计算项目(Open Compute Project,OCP),开源了其包括数据中心、定制服务器在内的一系列硬件设计。

三年两大招,先挖人,再开放,Facebook在数据中心规模比Google差一个量级的条件下,经常被与前三大(还有微软和亚马逊)相提并论,OCP居功至伟,甚至连“百万富嗡”(指服务器风扇的噪音,非贬义)微软都来入伙。

Facebook将数据中心宣传的公关战提高到一个崭新的水平。Google在2012年10月对外公开了一些数据中心技术的情况,包括请记者参观,和网站上近百张高清晰度的照片。但是,对于IT设备(服务器和网络)及相关技术,Google依然讳莫如深,至多提及其已废弃的服务器。Urs参与的前后两版书里,也是以宏观理念和数据中心层面的建设原则为主。

Facebook数据中心实践分析,OCP主要工作成果介绍 图注:Google位于俄勒冈州Dalles的数据中心依山傍水(哥伦比亚河),团队成员可以享受漂流、风力冲浪、钓鱼和徒步的乐趣。注意看左上角的山腰处(来源:Google官网)

有趣的是,James Hamilton还对Google公开的这些信息分析点评了一番。曾被认为在技术中心实力和保密程度上与Google一时瑜亮的AWS,如今似乎是最神秘的了。

总体而言,Google透露的是久远的历史和近期的状况,中间的壮大过程中传世不多,Facebook的发展史或许可资借鉴。

从一台服务器到多个数据中心

2004年2月,Mark Zuckerberg(马克·扎克伯格)在哈佛大学宿舍内将Facebook上线,当时只有一台服务器。仅仅五年之后,这个世界最大的社交网站已拥有超过3亿活跃用户,每天处理3.9万亿feed,超过10亿聊天信息,1亿搜索请求,每月超过2000亿PV……

在只有一小撮人使用,少量照片、没有视频的草创时期,全部服务运行在一台服务器上还是没问题的。2009年时的Facebook网站显然是另一个样子:载入用户主页这么一个看似简单的动作,就需要在不到一秒钟的时间里访问数以百计的服务器,处理上万片分散在各处的数据并提交所需的信息。

服务器的增长速度不难想象,有迹象表明,Facebook的服务器数量:


  • 2008年4月约1万台;
    2009年约3万台;
    2010年6月至少6万台……

即使放在今天,这个数量也可以排在Tier 2互联网客户的前列(以10万台为界,超过即为Tier 1,Facebook是十几家之一),能效就是必须要考虑的问题了。以每台服务器200W的保守计算,年耗电量已经超过1亿度。如果数据中心PUE(Power Usage Effectiveness,电源使用效率)能从1.5降到1.1,每年即可节省4200万度电。

直到2009年,Facebook仍然依靠租用的数据中心空间,没有自建的数据中心。租用数据中心空间(自己部署服务器、网络等IT设施)的优点是交付速度较快,可以在5个月内搞定;建设一个数据中心则需要大约一年的时间和更多的前期投资,但是在供电和散热等方面可以根据自身需求定制,对超大规模用户更划算,Google、、微软和亚马逊早就自建数据中心了。

Facebook数据中心实践分析,OCP主要工作成果介绍 图注:Prineville的两座数据中心建筑(来源:Facebook官网,2014年)

2010年1月,Facebook宣布在俄勒冈州的Prineville建设属于自己的第一个数据中心,规划面积约1.4万平米,目标PUE为1.15。同年7月,社交巨头决定将Prineville数据中心的规模倍增至约3万平米。2010年12月完工,得益于100%使用外部空气冷却、无需空调的一系列高能效设计,PUE可低至1.073。与1.51的“业界平均值”相比,节能幅度还略好于我们刚才的假设。

Facebook数据中心实践分析,OCP主要工作成果介绍 图注:2013年8月底,夕阳下的Altoona数据中心建设工地,占地约194英亩。到2013年11月中旬,每天有超过200人工作,累计工时近10万小时(来源:Facebook官网)

从自建数据中心尝到甜头的Facebook再接再厉,先后在北卡罗来纳州(North Carolina)的Forest City(2010年11月宣布)、瑞典的Lule2011年10月宣布)和衣阿华(Iowa)州的Altoona(2013年4月宣布)建设数据中心。每个数据中心建成后都有扩建,像Prineville和Forest City还各增加了一个用于冷存储的数据中心(建筑),LuleAltoona的二期工程也在2014年启动。

OCP缘起:青出于蓝以胜蓝

没有开源就没有今天的互联网行业,但这主要是从软件的角度来说。Google在软件开源方面还是做了不少工作,著名的Hadoop便可以视为Google无意间“开源”了思路的结果。就在2015年2月,Google宣布将其2014年6月收购获得的MapReduce for C(MR4C)开源,这是用C++开发的MapReduce框架,此举让用户可以在自己的Hadoop环境中运行原生的C及C++代码,是Hadoop社区的福音。

支撑互联网基础设施的是开放硬件技术,这与开源不太一样。英特尔通过开放硬件技术营造的生态环境,击败了IBM及其他RISC厂商(ARM另当别论),但至少在OCP出现之前,无法想象戴尔和惠普会公开其服务器的详细设计材料。而且,“开源+开放”也不意味着结果一定是透明的,Google就在开源软件和开放硬件技术的基础上打造了专有的数据中心。

应该说,扎克伯格很早就意识到,Facebook与Google必有一战,而且这一天远比国人听着耳熟的某同样句式表达来得快。Google在整个Web上开展广告业务,Facebook在自己的社交网络里开展广告业务,就像腾讯不让百度搜索进入微信一样,Facebook也要发展自己的搜索引擎。2013年Facebook上线了Graph Search,2014年12月初又更新为Facebook Search,随即在Facebook的搜索中去掉来自微软Bing的Web搜索结果。

很重要的一个区别是,腾讯并不比百度小,而Facebook自身尚不能与Google抗衡。从服务器到数据中心,Google起步早,规模大,自成体系。为了迅速缩小基础设施领域与Google的差距,Facebook想出了通过开源壮大生态系统的妙招,即成立开放计算项目(OCP)。

Facebook数据中心实践分析,OCP主要工作成果介绍 图注:开放计算项目(Open Compute Project)的Logo,左侧是用服务器主板拼成的“f”(来源:张广彬,2013年)

作为一个开源的硬件项目,OCP不仅是公布Facebook“白手起家”定制数据中心和服务器的细节,直到机架和主板的CAD图纸,更邀请开源社区及其他合作伙伴使用并改进。也就是分成两个步骤:先放出规范和机械图纸,再与社区共同改进它们。

如果我们考虑Facebook和Google身上类似硬件厂商的成分,可以看到,即便是生态系统的核心厂商如英特尔,也很难有如此社区化的思维。没错,上一个这样做的是Google,为了对抗苹果iOS而开源Android,成功的建设起巨大的生态系统,以群狼围攻猛虎。

在这个资金和人才密集型行业,开源是争夺人才的好办法,还具有显著的广告效应。有更多的客户使用基于OCP规范的硬件,也可以增大采购量,帮助Facebook降低成本,起到类似团购的效果。

当时OpenStack刚刚兴起,OCP也采用了一些类似的做法,譬如上下半年各一次峰会(Summit),并在2011年10月27日召开的第二届OCP Summit上,宣布成立OCP基金会(Open Compute Project Foundation)。不过,硬件设计的周期较长,于是,从2012年开始改为每年一次,2015年3月9至11日召开了第六届峰会。

Facebook数据中心实践分析,OCP主要工作成果介绍 图注:Facebook的基础架构部门(来源:张广彬,2013年)

在2014年1月底召开的第五届OCP峰会上,Mark Zuckerberg和Facebook工程副总裁Jay Parikh宣布,OCP成立三年来,开源硬件方案帮助Facebook节约了12亿美元。

此时,OCP的成员总数已接近200家(不乏2014年加入的微软、VMware等重量级传统企业厂商),以广达(Quanta)为代表的7家解决方案提供商,大量经过验证的设计,Facebook和Rackspace的采用……接下来,就从董事会和典型项目两个方面,大致介绍一下OCP这个开源硬件组织的组织架构及主要成果。

董事会:经验的传承

成立基金会,而不是在Facebook一家控制之下,对OCP发展的重要性不言而喻。OCP基金会在董事会的管理下运作,最初有5位董事,分别来自5家公司。

Frank Frankovsky代表Facebook,担任OCP基金会主席兼总裁。2009年10月加入Facebook,先后担任硬件设计与供应链运营总监和副总裁。此前,在戴尔负责服务器定制业务的数据中心解决方案(Data Center Solutions,DCS)部门担任总监近四年,上世纪90年代曾任康柏(Compaq)计算机公司的产品经理。

Facebook数据中心实践分析,OCP主要工作成果介绍 图注:Facebook硬件实验室一角。在硬件实验室里,这已经算相当整洁的了(来源:张广彬,2013年)

Mark Roenigk是Rackspace Hosting的COO,在微软工作过9年,大部分时间负责OEM和供应链运营,此前7年是康柏的工程师。Rackspace是著名的服务器托管商,有丰富的数据中心建设、运营和硬件经验,还与NASA共同催生了OpenStack——是惟一在一软一硬这两大开源组织中都有肇始之功的公司。

Jason Waxman现任英特尔(Intel)数据中心事业部高密度计算业务总经理,主要负责的领域包括互联网数据中心、刀片服务器以及与未来密集型数据中心架构相关的技术。他还负责领导英特尔在云计算方面的工作,并在Blade.org和服务器系统架构组织(Server System Infrastructure Forum,SSI Forum)的董事会兼任管理职位。此前曾担任负责英特尔至强(Xeon)处理器、相关芯片组和平台产品及其客户关系的总监。

Facebook数据中心实践分析,OCP主要工作成果介绍 图注:Facebook在硅谷的园区以前属于Sun——一家值得缅怀的伟大公司,顺道缅怀拍下这张照片的手机(来源:张广彬,2013年)

Andy Bechtolshiem来自Arista Networks,更响亮的名头是“Sun Microsystems共同创办人”。Andy Bechtolshiem担任过Sun的首席系统架构师,第一个投资Google,还担任闪存初创企业DSSD的董事长——后者2014年5月被EMC高调收购。

除高盛(Goldman Sachs)的Don Duet职业生涯主要履历为CIO之外,以上四人均有深厚的硬件行业背景,从产品、技术到供应链都有涉猎,见多识广,经验丰富,对把控开源硬件项目的发展方向至关重要。

正如前面所说,OCP下辖的项目很多,从服务器到数据中心,还包括机架(Rack)、存储、网络、硬件管理,并于2014年启动了HPC(High Performance Computing,高性能计算)项目。

服务器:始于Google,终成一派

Facebook开始定制硬件不算早,前期的服务器也来自OEM。Facebook基础设施工程负责人Jay Parikh在2012年10月中旬的GigaOm Structure欧洲会议上表示,在瑞典Lule数据中心将是Facebook首次完全没有采用OEM服务器硬件。

Facebook数据中心实践分析,OCP主要工作成果介绍

图注:区域数据中心之间的基础设施冗余。FE(前端集群)、SVC(服务集群)、BE(后端集群)组成一个整体,与另一个区域的数据中心互为冗余(来源:Facebook)

超越往往从学习和模仿开始,虽然牛顿所谓“站在巨人的肩上”并非此意。OCP成立时,Facebook数据中心团队贡献的第一代OCP服务器,很大程度借鉴了Google的设计,最明显的标志就是1.5U(66mm)的服务器机箱。这样做的好处是可以使用直径更大的60mm低转速风扇,与1U服务器的40mm风扇相比,节能效果显著。450W供电模块(PSU)支持277V交流和48V直流输入,前者比208V减少不必要的电压转换,后者由备份电池提供短时电力供应,都是为了尽可能的避免能源损耗。散热与供电双管齐下,控制电费(省OPEX)。

Facebook数据中心实践分析,OCP主要工作成果介绍

图注:48伏电池柜的输电路径(来源:Facebook)

OCP V1服务器有AMD(12核Opteron 6100)和Intel(6核Xeon 5600)两种双路方案,主板尺寸为13×13英寸,由广达(Quanta)制造。机箱宽度(480mm,略小于19英寸)和高度单位(Rack U,即RU,1RU为1.75英寸,即44.45mm)都遵守工业标准的“老规矩”,后端有3个硬盘托架,与主板均为免工具拆装。

Facebook数据中心实践分析,OCP主要工作成果介绍

图注:OCP服务器V1(左)和V2(右)采用同样的1.5U机箱,4个60mm风扇位于主板后方,右侧的硬盘托架由供电模块提供冷却气流。V2的改进包括:硬盘前置便于维护;2个主板提升计算密度,但牺牲了可能的硬盘数量;CPU性能提升(来源:Facebook)

2012年5月初在圣安东尼奥召开的第三届OCP峰会之前,AMD和Intel贡献了第二代OCP主板的设计,得益于至强(Xeon)E5-2600,Intel开始占据压倒性的优势。代号“Windmill”的Intel OCP v2.0主板采用双路Intel Xeon E5-2600,外形长而窄(6.5×20英寸,约165×508mm)。OCP V2服务器仍为1.5U规格,但主板宽度只有第一代的一半,因而能容纳两个计算节点,在同样的机箱内将密度翻番。

为了支持两个主板,V2服务器的供电模块提升为700W,并与硬盘互换位置,这样从前面可以直接维护硬盘。

经过两代服务器的摸索,相继暴露出一些问题:

  • 供电模块的冗余度差。相比于工业标准服务器的1+1冗余电源,这两代服务器只有一个供电模块。OCP V1服务器尚可用“牲口模式”来解释(关键组件出问题即替换整个服务器),OCP V2服务器的供电模块故障会导致两个计算节点失效,有点矫“枉”过正。为此Facebook还设计了高可用(High Availability,HA)服务器的方案,即增加一个PSU,替换下来一个主板,等于把计算密度又降回去了。
  • 可以用前一章所述把PSU集中到机架层面的方案(此时中国的天蝎整机柜已经这么做了),但是以19英寸机箱的宽度,拿走PSU剩下的空间,又不足以放下第三个主板(6.5×3=19.5英寸)。
  • 计算与存储没有解耦合。这在OCP V1服务器中尤为明显,3个驱动器托架可以放6个硬盘,计算节点只用一个启动盘的话,为保留不够用的灵活性而造成大量的空间浪费;OCP V2还好,因为增加的主板挤占了2个驱动器托架的位置。
  • 60mm风扇还不够大。
  • 不同程度的保留了USB接口,却没有BMC(Baseboard Management Controller,基板管理控制器)。哪个对管理更有价值,不言而喻。

除了最后一点,其他几点都需要机箱、乃至机架设计的改变。

Open Rack:重新定义数据中心机架

Facebook最初采用19英寸三联柜设计,名为Freedom Triplet,宽度为1713mm,比三个并排的EIA 310-D机架(600mm×3)略窄。外侧的两个机架(机柜,Rack)上各有一个架顶式(Top of Rack,ToR)交换机,每一列30个Open Compute服务器,共90个。一组三联柜装满90个服务器后总重2600磅(约1179公斤),两组三联柜共享一个备份电池柜。

Facebook数据中心实践分析,OCP主要工作成果介绍

图注:一个直流UPS电池柜支持两组三联柜共180台服务器的全系统(来源:Facebook,2010年)

更关键的问题在于,传统的19英寸机架,考虑到侧边和滑轨,留给IT设备(服务器、存储)的可用宽度只有17.5英寸,不能并排放置3个(6.5英寸宽)主板或5个3.5英寸硬盘。嫌窄者早已有之,如IBM大机和EMC的高端存储,都有宽度在60cm以上的机架,譬如EMC Symmetrix VMAX,系统和存储机架宽度均超过75cm(30.2英寸,合76.7cm),为的也是容纳更大的服务器(存储控制器)或更多的硬盘。

不过,一则拓展外宽未必提高效率,二则大机和高端存储从量上来说,还是小众产品,很少有人几千个机架的买。Facebook的办法是保持外宽600mm(近24英寸)不变,把内部横向间距从483mm扩大到538mm(21英寸),提高55mm(约2.2英寸),取消占地费钱的滑轨,空间利用率从73%(17.5英寸时)跃升为87.5%,可谓创举。

Facebook数据中心实践分析,OCP主要工作成果介绍

图注:Open Rack V1前视图和侧视图(左前右后),可以看到纵向空间的分配(来源:OCP规范)

综合起来,Open Rack的特点主要是:

  1. 拓展空间。 开创性的提高了内部利用率,特别是留给IT设备的宽度大为增加,单位高度也略有提升,同时尽可能的保持了与原有机架标准的兼容性(外宽一致,高度接近);
  2. 集中供电。 提供机架范围内的共享与冗余,服务器等IT设备直接插拔取电,免去上架时的手动连线工作;
  3. 前端维护。 后端用于供电和散热,维护人员在冷通道一侧即可完成日常工作,不用进入热通道。两边跑不仅增加了工作量,在后端识别设备困难,容易导致误操作。

当然副作用也是有的,即两侧起支撑作用的部分变薄,同时内部IT设备可能的重量还会增加(Open Rack V1.1规范已达950千克,接近本节开头提到的三联柜),对机架强度提出挑战。在整机柜交付等运输途中尤其如此,早期的Open Rack要在后端加斜梁辅助,防止变形。

不过,在目前的Open Rack V2规范里,基本机架配置在动态环境下支持500千克的IT设备,通过增加紧固螺栓等手段,重载机架配置(Heavy Rack Config)可以支持1400千克的IT设备——作为对比,James Hamilton在re:Invent 2014大会上透露,AWS的存储优化机架可容纳864个(3.5英寸)硬盘,重达2350英镑(约1066千克)——要怎么装出这个密度来,也是门学问。

还是类似三联柜的方式稳固(来源:OCP Engineering Workshop)

Facebook数据中心实践分析,OCP主要工作成果介绍

图注:Open Rack V2还有重组供电布局、去掉单独电池柜等重要改进,将在后面的章节介绍。

Open Vault:存储从服务器分离

得益于Open Rack,第四届OCP峰会上亮相的第三代OCP服务器(代号Winterfell)在设计上有质的飞跃:

  • 主板仍然是v2.0,但服务器高度增至2 OU,并特意强调不是1.5 OU,80mm风扇效率进一步提高;
  • 更大的纵向空间有利于容纳全尺寸GPGPU,支持两个全高的PCIe卡,一个3.5英寸驱动器槽位,均从前端维护;
  • 服务器机箱里没有PSU,正好并排摆放三台(2个80mm风扇),分别从后部的铜排取电,密度进一步提高(2 OU3)且相互独立;
  • 观感上,做工精细了很多,裸露部分的处理也较好,总体上不输一般商用服务器的水准。

Facebook数据中心实践分析,OCP主要工作成果介绍

图注:没有存储项目时Facebook的6种服务器类型,Type Ⅱ因与Type Ⅵ配置而被并入(弱势的AMD啊),多数公开资料里都没有;Type Ⅳ和Ⅴ的存储配置看着很像2U的所谓“存储服务器”(来源:Facebook)

我们常说,互联网公司是不买存储(设备)的,这里指的是SAN、NAS等传统的企业级阵列,而不是没有对大容量存储的需求。像前面刚提到的AWS存储优化机架,即为一例。

OCP V1服务器支持最多6个3.5英寸硬盘,都放满,不算多;只放一两个,剩下的空间又派不上别的用场。保持灵活性,就得付出浪费空间的代价,问题是也没多灵活。

其时Amir宣布了一个面向存储密集型应用的项目设计,看起来像是个4U设备,支持50个硬盘,分配到两个控制器,可以连接到多台服务器,提供可变的计算与存储配比。

第三届OCP峰会上,失势的AMD基于其双插槽Opteron 6200主板建立了一个代号Roadrunner的项目,包括1U(HPC选项)、1.5U(通用)、2U(云选项)、3U(存储计算选项)共四个规格。2U支持8个3.5英寸或25个2.5英寸驱动器,3U支持12个3.5英寸或35个2.5英寸驱动器,仅以3.5英寸硬盘的密度而言,还不如OEM厂商推出的服务器。在Open Rack实用后,这个项目愈发没有下文,AMD也投靠了ARM阵营,在OCP的项目里主要以微服务器卡(Micro-Server Card)刷存在感。

总的来说,还是Amir那个计算与存储分离(解耦,disaggregation)的思路靠谱。Facebook在时任硬件工程经理Per Brashers和中国籍工程师晏勇等工作人员的努力下,于同一届峰会上公开的Open Vault(代号Knox)取得了成功。这是一个宽度和高度(2 OU)都适配Open Rack的JBOD(Just a Bunch of Disks,一堆硬盘的简单集合,无处理能力,需配合计算节点使用),共30个3.5英寸硬盘,分为上下两层,每层有15个硬盘和一对冗余的“控制器”。电路逻辑比服务器主板简单许多,基本上是Facebook独力设计完成,先交由广达生产,贡献给OCP之后,与OCP服务器一样有其他提供商(如Hyve Solutions和Wiwynn)生产的版本。

Facebook数据中心实践分析,OCP主要工作成果介绍

图注:除了CPU、内存和硬盘配置的自然更新,2013年Facebook 的Hadoop(类型4)和Haystack(类型5)服务器都用上了Open Vault,冷存储机架更成为一种新的服务器类型(7),从硬件架构上也可以理解为一台单控制器带8个JBOD组成的低性能存储系统(来源:根据Facebook数据制表)

现在,需要大容量存储的Facebook服务器,如Type Ⅳ(用于Hadoop)和Type Ⅴ(用于Haystack,Facebook的图片应用)都由Open Vault提供存储,还增加了一个OCP服务器带8个Open Vault(240个硬盘)的冷存储(Cold Storage)类型——共18U,占据半个机架。

数据中心:RDDC与水……

如前面介绍,OCP的孕育便与数据中心建设有着密不可分的关系,Facebook贡献的基于Prineville数据中心实践的数据中心电气和机械设计规范,是OCP最早的文档之一;Facebook向OCP贡献的冷存储硬件设计规范包括了冷存储数据中心地面布局的建议,冷存储服务器就是前述的配置。

Facebook数据中心实践分析,OCP主要工作成果介绍 Facebook数据中心实践分析,OCP主要工作成果介绍 Facebook数据中心实践分析,OCP主要工作成果介绍

图注:Prineville第一座数据中心的散热设计,上层顶棚(对照前面Altoona数据中心的框架结构照片)对外部冷空气和回流热空气进行处理,按一定比例混合

RDDC很大程度上得益于Facebook着力推行的新风供冷(fresh air cooling),没有空调(Chiller-less)和冷却水管道,便于实现数据中心的模块化,另一好处是很低的PUE(约1.07)。相比之下,Google的数据中心模块化程度虽然高,但冷却水管道多少是个阻碍,PUE也略吃亏(约1.12)。不过,因为要靠喷水雾调节温度和湿度,Facebook的数据中心安全性略逊一筹。

Facebook数据中心实践分析,OCP主要工作成果介绍

图注:Facebook三大数据中心(Prineville、Forest City、Lule基本设计指标对比(来源:Facebook)

网络:从边缘走向核心

Intel在至强E5-2600的参考平台中力推夹层卡(Mezzanine Card)设计,特别是网卡,让高密度的机器获得和标准(PCIe)插卡接近的灵活性。这一思想在同样基于至强E5-2600的OCP Intel V2.0主板上得到了很好的体现,按照OCP Mezzanine Card 1.0规范设计的夹层卡,安装位置在主板前端(冷通道侧),便于维护。

就标准机架服务器而言,网卡采用夹层卡设计的紧迫性不高,还会提高成本,所以OEM大厂的响应不是很热烈。支持者如戴尔等将灵活性作为主要卖点,以Broadcom或Intel的网卡模块为主,希望能推动传统企业用户加速向万兆网卡升级。OCP服务器则大量采用Mellanox的万兆夹层卡,丰富的特性如能降低传输延迟的RoCE(RDMA over Ethernet,以太网远程内存直接访问)和硬件虚拟化技术SR-IOV(Single Root I/O Virtualization,单根虚拟化)也是其卖点。甚至国内OEM服务器大厂如联想,亦在其天蝎2.0服务器节点中采用这种夹层网卡,如此“拿来主义”精神对扩大OCP的覆盖有一定积极作用。

Facebook数据中心实践分析,OCP主要工作成果介绍

图注:OCP夹层卡V2主要有三大改进:增加连接器B、扩大板上空间、可选I/O区域(来源:OCP Engineering Workshop)

说到这里有必要指出,夹层卡属于服务器项目。OCP在网络项目上的起步相对较晚,从2013年才开始有规范产生,2014年逐渐壮大。

按照OCP官网上的说法,网络项目最初的目标是开发边缘(leaf,指ToR)交换机,然后是骨干(spine,相当于Aggregation)交换机和其他硬件及软件方案。

Facebook数据中心实践分析,OCP主要工作成果介绍

图注:OCP网络项目的阶段性目标,先从传统单片式(Monolithic)交换机到软硬件解耦,再进一步模块化(来源:Facebook)

数据平面的核心是ASIC(如Broadcom)或FPGA,不乏支持40GbE的方案;控制平面的CPU可以是x86(如AMD的嵌入式SoC,或Intel Atom)、PowerPC(如Freescale多核PPC)、MIPS(如Broadcom多核MIPS)或ARM。截至2015年2月底,OCP已经公开了6款交换机(Accton、Broadcom/Interface Masters、Mellanox和Intel各1款,Alpha Networks有2款)的设计,其中的半数方案可以根据需要配置为ToR或会聚(aggregation)交换机。

软件与硬件解耦,ONIE是关键,也是OCP网络项目早期的重点工作。ONIE即Open Network Install Environment(开放网络安装环境),是一个定义用于裸金属(bare metal)网络交换机的开放“安装环境”的开源项目。传统的以太网交换机有预安装的操作系统,拿来就用,直接管理,但会锁定用户;所谓的白盒(white-box)网络交换机提供了选择硬件的自由,但不同的CPU架构等导致异构的管理子系统,又给上面的网络操作系统制造了困难。

ONIE定义了一个开源的“安装环境”,将boot loader(引导装载程序)与现代的Linux内核及BusyBox相结合,提供了一个可以安装任何网络操作系统的环境,有助于自动化大型数据中心的交换机(上千台)配给,让用户像管理Linux服务器一样管理交换机。

上述成果的直观体现就是Juniper Networks(瞻博网络)2014年12月初发布的OCX1100交换机,在Alpha Networks SNX-60×0-486F的硬件上运行基于Linux的Junos操作系统,预计于2015年第一季度上市。SNX-60×0-486F是Alpha Networks公司设计的OCP交换机,由一个BCM56854(Broadcom Trident Ⅱ)芯片提供48端口10G SFP+和6端口40G QSFP,CPU子系统为Freescale(飞思卡尔)P2020或Intel C2558,可作为ToR或会聚交换机使用。Dell(提供如Z9500-ON数据中心核心及会聚交换机)与Cumulus Networks(提供CLOS)的合作也是类似的情况。

Facebook数据中心实践分析,OCP主要工作成果介绍

图注:6-pack硬件平台外观,由于集中了PSU,Wedge交换机宽度更紧凑,两两并行放置(来源:Facebook)

2015年2月11日,Facebook宣布推出第一款开放硬件模块化交换机“6-pack”,7RU的机箱,装有8个基于Wedge的交换机和2个fabric卡,共6层,底下还有一层电源和风扇。作为Facebook data center fabric的核心,6-pack将使Facebook可以组建更大规模的集群,而不是将集群分为多个,并因集群间的网络链路而限制集群的规模。

Facebook数据中心实践分析,OCP主要工作成果介绍

图注:2011年微软IT-PAC(IT Pre-Assembled Components,IT预组装部件)中的服务器机架,看似是开放云服务器的前身,目测机架高度应该在50U以上

存储刀片为可容纳10个3.5英寸硬盘驱动器的JBOD,V2也是从V1的6Gb SAS升级为12Gb SAS,单就硬盘密度而言,每机架可达800个硬盘。V1 JBOD仍可用于V2机箱,每个计算刀片自带4个3.5英寸硬盘(V1还支持2个2.5英寸SSD,V2增至4个,以及8个110mm M.2 PCIe NVMe模块)。每个计算刀片可连接1-8个JBOD,即支持14-84个硬盘。

Facebook数据中心实践分析,OCP主要工作成果介绍 Facebook数据中心实践分析,OCP主要工作成果介绍

图注:调整后的OCP组织架构(来源:OCP官网)

老牌存储厂商EMC在2013年1月举办的第四届OCP峰会上就宣布入伙,只是风头被一起加入OCP的ARM压过。因此,EMC World 2014上发布基于x86商用服务器硬件的ECS(Elastic Cloud Storage,弹性云存储)设备时,就被问到是否与OCP有关。相比之下,EMC的子公司VMware就爽快得多,在2014年8月底举办的VMworld 2015上宣布加入OCP,尚处于技术预览阶段的EVO: RACK则明确表示基于OCP硬件——毕竟,VMware自身没有硬件包袱。

小结:模式、传承与融合

OCP下属项目越来越多,第六届峰会马上就要召开,短短一章实在难以尽述,单独写一本书都是可以的。本章走马观花的概览了一些关键项目,有主要感受如下:

  1. 模式。 OCP最成功之处无疑是创造了开源硬件的模式,虽然起自Facebook自家的定制需求,却在社区的协助下,进一步推动硬件的标准化与商品(commodity)化;
  2. 传承。 开源软件的模式可以学,没有精通硬件的人才也搞不好。众多在硬件厂商乃至Google有多年数据中心相关技术积累的专业人才,为OCP的后发优势提供了可能;
  3. 融合 。OCP已经体现出了来自互联网的第三平台对传统企业市场的第二平台的影响,微软和VMware、Juniper等在传统企业市场积累有软件资产,要颠覆现有硬件秩序或顺应潮流的,都来加盟。开源社区的特性和这些加盟者所做的工作,也会影响到OCP的发展方向。

文章知识点与官方知识档案匹配,可进一步学习相关知识Java技能树首页概览91537 人正在系统学习中

来源:元宇宙iwemeta

声明:本站部分文章及图片转载于互联网,内容版权归原作者所有,如本站任何资料有侵权请您尽早请联系jinwei@zod.com.cn进行处理,非常感谢!

上一篇 2015年2月7日
下一篇 2015年2月7日

相关推荐