副标题#e#
2020年12月8日-10日,第十五届中国IDC产业年度大典在北京国家会议中心正式召开。作为数据中心云计算产业内知名的盛会以及IDC企业、电信运营商、互联网、金融、政府和厂商等产业上下游的高效沟通平台,与会嘉宾包括政府领导,行业专家和企业代表数千人。以“数据中心新技术与应用”为主题的分论坛于10日举行,上海数据港股份有限公司技术管理中心总经理王肃发表了《新基建时代,数据中心节能创新技术趋势探索》主题演讲。
王肃:尊敬的各位领导,各位嘉宾,大家上午好。其实这个话题之前在多次论坛上和大家分享过,因为是第一场,时间允许的话我们可以互动一下。
跟大家分享的话题主要分为两部分,第一部分跟大家看一下,特别是今年后疫情时期IDC市场或者数字经济市场是什么样的。第二部分,想跟大家共同探讨一下我们有哪些新技术、新应用可以为整体的数据中心基础设施提供一些新的思路,包括刚才下面和王建新老师也探讨了一下,就我们现在看来不管是电器架构、供电系统的原理或者暖通系统的原理,特别是暖通系统,其实它们的制冷原理一百多年以来一直都是这样的基础原理形式,发展这么长时间已经没有什么发展了,但是今天很高兴看到我们这次主办的主题可能和液冷有一定关系,下面我有一部分想跟大家分享一下液冷的改变不单单是技术层面的改变,而是从整体思路上的改变。
先跟大家一块分享我们现在数据中心行业的现状。数据中心现在讲的是专有名词,更泛泛的讲可以理解为IDC的基础设施的支撑,比如一些大数据、云计算、人工智能、智慧城市、工业互联网以及物联网都需要基础设施进行支撑的。为什么说数字新基建将成为未来科技发展的铺路石呢?
第一点,因为拉动经济的发展。中国数字经济的蓬勃发展是未来增长的重点,其实也是世界经过重新发展的模式,预测到2022年全球数字经济比重将达到60%,中国数字经济比重将达到65%。在今天来的路上我看到一条APEC的推送,整个亚太地区到2023年将会有65%的GDP产值要实行数字化,这部分的产量总价值大概在1.2万亿美金左右,所以说数字经济拉拢全球经济,特别是中国经济的增速特别快。
第二点,增强抗冲击能力。在今年大家的感受应该非常明显,特别在疫情期间,作为父母的可能都会感受到孩子在家上网课,我们在家办公时候的外卖,可以说疫情期间数字经济撑起了一片天。从远程办公到在线课堂,从线上消费平台到无人商店,新产业、新模式缓解疫情的影响,也增强了中国经济的抗冲击能力。
第三点,前沿科技的发展。在2019年10月31号的时候,我们的5G技术已经正式商用,在2025年有望扩展至全球411家电信运营商,截止到2020年2月底,5G套餐用户达到2000万左右,未来将产生更多的新产业、新业态、新模式。
第四点,提升空间大。中国云计算的水平发展距离北美这些发达地区还有一定的差距,我们的提升空间非常大。我们对标一些龙头厂商,阿里云的收入现在是AWS的七分之一到八分之一左右,从服务器的保有量来看,阿里腾讯的服务器保有量仅是AWS的四分之一,从超级数据中心看,2017年北美占44%,中国占8%。整体的综合运算能力要比分散式数据中心好一点,中国目前来讲超大型数据中心占比或者提升空间非常大。
从发展速度来看,刚才大家看到整体总量离北美地区还有一定差距,但是我们的发展速度已经是非常快了。中国云计算起步虽然晚没美国,但是发展更快,且具备和美国相当体量的IT和互联网+环境,中国势必成为全球云计算发展的第二极,尤其是IaaS有望在2022年占到20%。
国内我们在2020年的这一部分IDC业务是1958亿,到2020年预测可以达到3200亿。2019年全球的IDC业务市场整体规模接近7630亿,同比2018年增长了22%,但是这个仅是IDC业务的一个产值,其实背后还有一些间接的业务,这个体量要远远大于这个数字。
下一步看一下IDC增长的核心驱动力。中国移动互联网接入流量在2018年的消费量达到了711亿GB,同比增长了190%,近三年平均增长率超过150%。距离我们业务增长的对标指标来看还有很大差距。可以说互联网流量的指数发展与数据中心建设容量的线性发展之间不匹配是目前数据中心发展的主要矛盾。
中国公有云市场在过去三年中平均年增长率超过40%,未来三年预测不会低于30%。在2018年中国市场只有7.1%的系统基础设施支出转移到了云IaaS支出,预计到2018年到2023年复合年增长率达到41%,到2023年中国将有超过四分之一的支出转移到IaaS支出。
下面分享一些市场现状。
今天我们整个论坛主要的部分是液冷部分的应用,其实这里可以看到浸没式液冷的应用,包括温暖数据中心在海里的,以及极地的数据中心。我们觉得数据中心节能以及能效方面主要有几个方面可以产生降低能耗的途径,第一点减少链路环节,以及提高产品效率。比如说HVDC的应用,比如说巴拿马电源。另一种新技术,新架构,以及新产品的应用,比如说浸没式液冷的应用,间接蒸发冷的应用,显著降低PUE值。液冷不受地域和环境的影响,大家比较公认的评判数据中心的节能指标的值可能就是PUE,这个值是计算比较简单,相对来说大家比较接受,具备一定的公平、公正性的值。但是它有自己的不客观性,后面再分享一下。我们从IDC数据中心的运营成本构成来看,电费占51%的成本,带宽占18%,设备的折旧等占到17%,人工成本占5%,其它占9%。能源的消耗费用还是数据中心的主要成本占比。
PUE为什么具有一定的不客观性呢?目前是大家比较接受的值,但是不去倡导唯PUE论,其实这个观点我在一两年前跟大家分享过,但是那个时候可能大家还是一个看PUE值比较客观,比较简单,或者利于计算。其实从整体的最近全球数据中心近五年的PUE值趋势来看,这么多的技术投入,这么多新概念的应用,全球数据中心的PUE值看平均数下降了0.07%。右侧这个图是2017年的时候,美国通信信息技术协会综合了各个厂家典型的服务器做的服务器的温度和后端风扇的曲线对比图。我们现在讲降低PUE或者我们把PUE做到很好看的数值,有一大部分的技术手段是提高供水问题,其实也是间接提高了送水温度。一部分是为了提高冷机的能效,另一个目的是延长自由冷却时间。自由冷却对于数据中心的能效影响还是很大的,但是第二个图可以看到如果在进水温度在24的时候,我们看到黄色代表服务器的进风温度,在24的时候服务器的风向功率是12千瓦左右,但是我们继续提高服务器的送风温度,可以看到当提高到大概在34度左右的时候,服务器后端的风扇温度可以飙升到65瓦左右。也就是说其实从PUE上来看,服务器的风向功率也是算在公示的IP里面的,但是这部分不能有效转化为服务器的算力,即使采用这些手段对于数据中心的整体能耗是不是有利的影响,这个我们看还不是这样。
#p#副标题#e#
下面我想通过四个案例跟大家分享一下我们怎么去看待节能应用赋能数据中心价值链。首先第一个案例是在张北,这个项目在建设之初就有好多的朋友特别感兴趣,因为这个项目是第一个全球大范围应用干冷气作为主冷源的项目。大家知道张北有些气候特点,它位于坝上的高寒区,冬季的温度会达到34.8度,夏季会达到33.5度,冬季和夏季对于整体的暖通系统的运行并不是太有效,我们可以看到平均气温3.2度对于节能系统比较好,但是对运维的安全性提出了挑战。另一点海拔1500米,空气密度也会是一个问题,其中最重要一点就是水资源少,年平均降水量只有300毫米,为什么选择干冷气作为主冷源呢?一个主要原因就是降水少,没有足够的水源支撑这种冷源形式。
这个是我们数据中心的一个基地图,之所以我们的业主或者客户选择这个也是为了符合环境,也是性价比来讲综合的选择。整个园区一共五栋楼,一期的ABC都是用的干冷气作为主冷源,一栋楼建筑面积2万平米。干冷气这个东西主要就是三部分组成,一部分位于上面的EC风机,一个是侧面的管,还有一部分是水喷的管路。一栋楼12兆瓦的情况下,我们把冷源分为AB两个区,每个区占比60%,还有40%由风冷为辅助。干冷是6850千瓦,在极端天气会降到2650千瓦。
我们为什么说这个干冷气选择是比较好的选择呢?我们通过数据跟大家分享一下。
这个系统运行有三种模式,在18度以下是纯干冷气,18度到20度是干冷气加水冷气,如果是大于24度的,全年大于24度的时间是148小时,等效是6.2天。全年可利用的时长是8612小时,等效的情况是359天,也就是说全年有95%的左右的时间都可以利用自然冷源的。从环保层面可以减少废热、废水的排放。
这是刚投入的时候,我们现场实际拿到的运维数据。5月10号日平均温度是3.8度,它处于干冷气制冷模式,IT负载率在27%的情况下,CLF大概是0.098。5月13号到了15.4度,处于混合运行模式下,CLE是0.221。
另一个跟大家分享的案例是我们刚刚在华东和业主投入的浸没式液冷数据中心。这个数据中心如果没有统计错的话,应该是全球最大的应用浸没式液冷的数据中心。浸没式液冷很简单的理解,通过液冷机柜的冷却液体对IT设备直接接触发热量的冷却形式,再排到室外。它相对于我们传统的制冷方式,不管是水冷、风冷或者其它的冷源形式,最主要的一点是去压缩计划,没有中间的压缩机的部分,也就是说浸没式液冷可以简单的去理解为全年全部是在自由冷却的时间段工作的。
通过上面跟大家分析PUE的事情来看,其实我觉得浸没式液冷主要是技术方向,一种制冷形式,但是结合PUE这个维度来看,我们觉得不光是一个制冷形式这么简单,其实它更多的是提出了一个数据中心基础设施的新概念。因为浸没式液冷是服务器完全不需要后端的风扇的,它的最大贡献不是减少了PUE,提升了能耗,它的最大贡献是把服务器的有效功率完全转化为算力。我们这么多年来其实没有一项新技术是打破了原有的技术理念和技术架构做的技术革新,都是在前人的脚步上不断改善,但是浸没式液冷的提出打破了原有的技术框架。从PUE数值来看,减少了后端的IT功率那部分的风扇功率,其实对PUE值是没有帮助的,反而对PUE值是不会让它好看的,因为分母部分比值减少了,反过来算PUE的时候,浸没式液冷如果同等的IT功率,同等的基础电商算它的值肯定要大的,但是它的总体能耗是小的,它把服务器的功率完全转化为它的算力。
这个不详细介绍了,大家看一下就好了,可能是浸没式液冷一些优缺点。
我们现在在华东投入的数据中心当时做计算的时候预估的PUE可以1.18左右,但是现在可以做到比这个数值低好多。
#p#副标题#e##p#分页标题#e#
另外一个项目有一次去日本调研的时候,这个项目是位于日本的青森,是日本的最北端。第一个特点是全年温差比较小,代表它的气候比较稳定。第二个特点是冬季降水量非常大,这个项目非常巧妙的把冬季降雪在夏季储存起来,作为自然冷却的能源给数据中心供。从数据分析来看,5月份的PUE可以做到1.92,大家可以看到这个数值其实非常不好看,PUE1.92。后面还有一个IT负载只有2%,但是在11月的时候IT负载升到8%以后,它的PUE为1.16了,所以这个项目其实给我们的启发是利用当地的自然条件和自然措施怎么能更好的为数据中心的经济模型做贡献。
最后一个项目是位于美国的哥登市,这个项目是美国的能源局下面一个节能再利用的超算中心,总共大概1000千瓦一兆的IT运算量。这个项目在2018年的时候是获得了美国埃士瑞的最佳节能奖。它也是全年严重缺水的城市,全年降水量大概在360毫米左右,它当时做的时候是用的液冷技术,靠冷却塔把这部分的废热排到室外。14年投入运营以后到16年觉得这部分的水耗太大了,而且当地的水资源也不足以支撑这个项目的正常运行,并且从美国的电价和水价分布,电价很便宜,差不多相当于4.5元人民币一度电,但是水费相当贵,一加仑6.5美元,一立方米大概240多加仑,大概是12多美元一吨的水。它在16年被迫做了一项改造,在中间加了一个虹吸式干冷气,这个项目既用了液冷部分,也用了干冷气部分,一部分降水耗,一部分降电耗。这个项目的BA比较有意思,一套自控系统根据室外的温度,以及服务器的内测温度来调节干冷气和液冷的冷却塔的能耗分配,这个方案是完全从能耗的角度考虑的。还有一部分自控系统把水费、电费的经济指标输入里面,自动调节怎么产生一个比较好的经济收益,这个项目也可以给我们带来一些启发。我们做数据中心的时候可能会在某一个时段过多的去关注某一项指标,但其实回过头来看,其实所有的指标都应该是一个综合的指标。
下面再说一下数据港,作为国内定制的数据中心的龙头企业,自成立之日起一直于互联网头部公司奋战在中国数字化的第一线,我们在一线城市也有一些资源积累,也会做一些新零售的模式。我们的服务对象就是服务器,服务器本身就有客观的需求,比如送回风温度,服务器内部的环境温度都有客观的需求。通过这四个案例,我觉得数据中心也需要有一定的个性,根据当地的气候条件、地缘环境、政策条件、市政调整,我们要打包成一个综合的指标来看待数据中心,重新定义数据中心的架构。
#p#副标题#e#
以上就是我想跟大家分享的全部内容,谢谢大家!
延伸阅读:
- 【IDCC2020】圆桌对话:重新定义IDC——未来IDC的行业形态畅想
- 【IDCC2020】圆桌对话:新业态下用户、IDC与资本的共融之道
- 【IDCC2020】京东数字科技集团资深售前专家厚福佳:机器人在数据中心运维的应用与展望