PUE逼近1.0 全浸没液冷服务器集群现身阿里巴巴

4月5日,阿里巴巴技术在官方微博发布了一组照片,以此回应在4月1日愚人节提及的“麒麟”计划。据证实,该麒麟计划实为业界首批浸没液冷服务器集群,通过液冷而不是常见风冷的方式为服务器集群降温,最终其PUE值可接近1.0,达到了世界领先水平。

阿里巴巴技术官方微博截图

阿里巴巴浸没液冷服务器集装箱

阿里技术的微博这样写道,“这是阿里巴巴又一黑科技产品,将创造多个业界记录,支撑阿里巴巴‘NASA’行动计划”。照片显示,放置在楼顶的集装箱里摆满了印有阿里LOGO的黑色金属箱,以及在透明玻璃下箱体内部的线缆、铜管和高密服务器节点。

阿里巴巴浸没液冷服务器集群

阿里巴巴浸没液冷服务器集群内部结构

经官方正式确认,4月1日愚人节提及的“麒麟”计划是技术研发成功后的一个小插曲。该项目负责人阿里巴巴服务器产品高级专家炽平表示,这些照片背后是浸没液冷服务器集群,PUE(能源使用效率)逼近1.0。

阿里巴巴重构液冷服务器 透过阿里云推广为普惠技术

浸没液冷是最近几年备受业界关注的新型散热技术,尤其在SC14全球超级计算大会上,来自国内外的多家服务器企业均展示了在浸没液冷散热上的产品,大幅提高了业界对液冷的关注度。

但遗憾的是,受限于技术实现的难度,目前参与浸没液冷服务器设计的企业,对浸没液冷的应用也仅局限于单机测试、单机展示阶段,从目前公开的信息看,并无服务器集群部署先例。

浸没液冷服务器集群部署一直未实现的主要原因,在于浸没液冷解决方案相比风冷是一种全新的变革,需要具备从服务器到数据中心整套解决方案的架构创新和重构设计的能力。

“阿里巴巴进行了浸没液冷的新材料技术研究,液冷服务器架构设计以及液冷数据中心整体方案重构”。炽平表示,目前阿里巴巴已经在整机柜服务器技术规范上形成了原创设计思想积累,在结合自身需求以及在自研数据中心的积累后,快速设计出符合自己需求的浸没液冷服务器整套解决方案,并进行集群化实践。

据悉,阿里巴巴对于液冷方案贯彻了系统化设计思路,除了硬件外,同期还设计了一套适合浸没液冷的监控管理系统。

除了应用于自身业务场景外,浸没液冷的成套先进技术也将率先应用于阿里云数据中心,通过阿里云对外服务来实现技术的普惠应用。据了解,浸没液冷服务器将在高主频计算领域发挥重要价值,也将因此大大节约能源,实现绿色计算。

PUE无限逼近1.0 可达理论极限值

对于行业内最关心的液冷服务器PUE数值,阿里巴巴给出了一个疯狂的数字——逼近1.0。

PUE值是指数据中心消耗的所有能源与IT设备负载消耗的能源之比。PUE值越接近1.0,表示数据中心的能效越好,绿色化程度越高,也就是越节约能源。

阿里巴巴浸没液冷服务器采用了3M氟化液液体,全环境无风扇无振动设计,达到卓越散热冷却效果。同时由于没有空气,水汽,灰尘,风扇振动等环境影响,元器件可靠性也大幅提升。

近年来阿里巴巴一直致力于绿色数据中心的技术创新,实现对能源的节约。2015年投入运营的华东某数据中心采用深层湖水制冷,年均PUE低于1.3。近日由阿里云对外开放服务的华北3数据中心则充分利用环境优势,大面积采用新风自然冷和水侧自然冷技术,年均PUE低于1.25。此次的浸没液冷,更是将PUE推向理论极限值1.0。

技术的进步,一直在不断激发行业对未来绿色数据中心建设的想象力。

9