图片-稻子网
图片-稻子网
图片-稻子网
图片-稻子网

阿里服务器数量-被“浸泡”的服务器:阿里巴巴开源液冷黑科技

除了噪音,传统风冷数据中心用于散热的风扇会产生振动、灰尘和静电,直接导致机械部件故障率增加和使用寿命缩短。水下液冷数据中心的优势肉眼可见——节能高效。

然而,浸入式液冷数据中心的背后是巨大的创新和革命性的变化。硬件和系统的改变需要大量的人力物力,几乎没有市场化,缺乏相关的标准、可靠性和经济性可供参考。性别还有待时间验证。

为此,阿里向全社会公开了《水下液冷数据中心技术规范》,呼吁更多的参与者加入这场“液冷换风冷”的技术革命。

“绿色”成为数据中心关键词

1 月 6 日,阿里巴巴宣布开放《水下液冷数据中心技术规范》阿里服务器数量,旨在为下一代绿色基础型数据中心的建设提供设计依据,采用一套标准程序。据其初步测算,如果全国所有数据中心均采用液冷技术,每年可节省数千亿千瓦时电。

图片[1]-阿里服务器数量-被“浸泡”的服务器:阿里巴巴开源液冷黑科技-稻子网

图片[2]-阿里服务器数量-被“浸泡”的服务器:阿里巴巴开源液冷黑科技-稻子网

阿里巴巴宣布将向全社会公开《水下液冷数据中心技术规范》。来源:阿里巴巴

“虽然更换液冷材料和辅助设备需要较大的初期投资,但浸入式液冷技术可以将冷却能源成本降低95%,整体降本效果非常可观。”作为浸入式液冷技术集群的3M数据中心事业部营销经理姜以宁对时代财经表示。

“绿色”是2019年数据中心建设的关键词。随着人工智能、物联网、云计算、大数据等高新技术产业的发展,全球新增数据以惊人的速度。机房携带着数据密码进出信息世界。托管服务器全年不间断运行,需要空调等辅助制冷设备进行维护。耗电量也一天比一天增加。

中国数据中心节能技术委员会数据显示,目前国内数据中心能耗普遍偏高,PUE平均值在2.2-3.0之间。 2017年我国数据中心总用电量已达120-1300亿干瓦时,超过2017年三峡大坝和葛洲大坝全年发电量。

图片[3]-阿里服务器数量-被“浸泡”的服务器:阿里巴巴开源液冷黑科技-稻子网

据绿色和平统计,2018年中国IDC(互联网数据中心)总用电量为1608.890亿千瓦时,占中国总用电量的2.35% 未来5年(2019-2023)IDC总用电量将增长65.82%,年均增速将达到10.64%。预计2023年我国数据中心总用电量为2667.92亿千瓦时。

2019年2月,多部门联合印发《关于加强绿色数据中心建设的指导意见》,明确新建大型、超大型数据中心用电效率值(PUE值)必须达到1.4 或更少。

根据《国家数据中心应用发展指南(2018)》),目前全国超大数据中心平均PUE为1.63,大数据平均PUE为1.中心1.54,但整体效率水平在逐步提升,2013年投产的大型和超大型数据中心平均PUE低于1.50,设计规划PUE1.41、1. 48,尚不能满足日益严格的节能要求。

何宝红指出,未来建筑系统和物理基础设施的完善、软硬件平台的优化、边缘计算和高性能计算的应用,都有助于绿色数据中心政策的落地,沉浸式液冷技术优势突出,可将IT设备面积减少75%以上,单项计算密度提升10倍以上,可满足一线城市PUE建设限制.

突破“能耗墙”

图片[4]-阿里服务器数量-被“浸泡”的服务器:阿里巴巴开源液冷黑科技-稻子网

据市场研究机构统计,截至2019年第三季度末,超大规模供应商运营的大型数据中心数量增至504个,是2013年初以来的三倍。在超大规模供应商中阿里服务器数量,亚马逊和微软是过去 12 个月新增数据中心最多的,占比过半,谷歌和阿里巴巴排名第二。

图片[5]-阿里服务器数量-被“浸泡”的服务器:阿里巴巴开源液冷黑科技-稻子网

中国超大型数据中心数量排名第二。来源:

为了突破“能耗墙”,阿里巴巴开始大规模建设新一代绿色数据中心。例如,河源数据中心采用深湖水冷却,年均PUE小于1.3,是华南地区最节能的数据中心之一。在年平均气温仅为2.3摄氏度的张北数据中心,工程师们用刺骨的北风取代了传统的制冷系统,同时回收了余热用于家庭供暖。

据阿里巴巴介绍,基于自主研发的深水冷等技术,绿色数据中心具有卓越的节能效果。每万笔电商交易耗电量控制在2度以内。预计“双11”一天就能节电20万度。

图片[6]-阿里服务器数量-被“浸泡”的服务器:阿里巴巴开源液冷黑科技-稻子网

但并非所有地区都具有自然气候优势。 2018年,阿里巴巴在北京冬奥云数据中心完成了全球互联网行业首个水下液冷数据中心的大规模部署。数据中心公开公布的PUE值为1.0,意味着散热能耗几乎为零,整体节能70%以上。

目前,阿里巴巴尚未公布建设数据中心的成本数据。阿里巴巴基础设施首席架构师&IDC总经理高高远告诉时代财经,基础设施数据中心本身的成本不会有明显变化,但冷却剂本身会带来较大的成本增加,成本回收时间也会有所不同。业务场景高度相关。

针对具体的应用场景,高善元指出,未来希望液冷技术能够应用在从几十台服务器到几十万台服务器的大规模场景中。 “比如边缘计算场景对环境要求比较严格,我们正在讨论如何让液冷相关的规范适应几十台边缘计算服务器的规模。”

黑科技面临的挑战

推进浸入式液冷集群技术,硬件和系统的改变需要大量的人力物力投入,市场化几乎是空白,需要多个角色的参与。作为第一批吃螃蟹的人,阿里巴巴想推广吃螃蟹的方式。

图片[7]-阿里服务器数量-被“浸泡”的服务器:阿里巴巴开源液冷黑科技-稻子网

“我们认为在未来三到五年内,会有风冷和液冷互换的技术条件。”高善元说,“任何采用风冷的区域,都可以采用液冷,我们的可以淘汰。风冷技术实现了液冷到默认配置的过程。”

据英特尔平台架构师、总工程师龚海峰介绍,阿里巴巴和英特尔从2015年就开始讨论液冷技术的可能性,到2018年项目将完成,从了解需求到进入深入的技术合作。大规模技术部署的漫长过程。

“目前,水下液冷数据中心建设面临的最大挑战是,即使你想使用它们,也可能买不到相应的产品。”高善元在接受时代财经等媒体采访时指出,“另外,具体使用经过长期摸索,阿里巴巴总结了一些规范,通​​过开源的方式让大家参与到这个生态中,让所有用户都可以快速构建水下液冷数据中心系统。”

事实上,在国内液冷技术领域,曙光、浪潮等存储企业早已涉足。例如,早在2015年创新技术大会上,曙光就发布了中国第一台量产的液冷服务器:曙光-LP冷板液冷服务器,可大幅降低整机功耗,降低噪音机房。 PUE 可以降低到 1.20 以下。

阿里巴巴基础设施事业部资深技术专家钟扬帆表示,上述厂商主要针对特定​​的垂直场景优化解决方案,而阿里的液冷技术主要适用于云计算互联网场景,通用性更强。 “比如曙光考虑了超算等更多的业务场景,不需要考虑硬盘问题,但要考虑软硬件的兼容性。”

与此同时,微软、亚马逊等海外公司也开始了液冷数据中心的建设。 “目前只有阿里将液冷技术规范作为开源发布,AWS和微软都在跟风,但进度远远落后。”高高远说。

© 版权声明
THE END
喜欢就支持一下吧
点赞0 分享
评论 抢沙发
头像
欢迎您留下宝贵的见解!
提交
头像

昵称

取消
昵称表情代码图片