互联网爱好者创业的站长之家 – 南方站长网
您的位置:首页 >微商 >

数据中心:如何解决数据中心的“热”与“冷”?液冷技术变革行业生态,产业化爆发窗口来临

时间:2023-02-20 11:46:43 | 来源:

今天,分享一篇如何解决数据中心的“热”与“冷”?液冷技术变革行业生态,产业化爆发窗口来临,希望以下如何解决数据中心的“热”与“冷”?液冷技术变革行业生态,产业化爆发窗口来临的内容对您有用。

南方财经全媒体记者 李润泽子 21世纪经济报道记者 郭美婷 实习生 张晓玉 曹萩儿

编者按:

“东数西算”已逾周年。这一年来,数据中心项目如雨后春笋,算力产业底座持续夯实,算力资源结构日趋完善,“东数西算”持续赋能千行百业。

我们希望通过系列报道,呈现“东数西算”工程开展过程中的成效与挑战,以大局观把握“东数西算”落地棋盘,同时聚焦数据中心投建中的微观话题,探讨算力产业高质量发展之路。

液冷技术是数据中心绿色低碳发展中绕不开的话题,其不仅是散热方式的改变,更有可能变革整个数据中心生态。因此,本系列第二篇稿件将聚焦数据中心的新一代制冷技术——液冷,展现其如何助力数据中心“冷静计算”。

电影《流浪地球2》中,能否重启互联网根服务器是应对月球危机、拯救地球的关键。为此,由刘德华饰演的图恒宇和同事马兆等人进入被淹没的水下数据中心,对机房设备进行检查并启动服务器。

而这些服务器正是如今算力圈高效节能的网红级产品——浸没式液冷服务器。

所谓浸没式液冷,就是将发热器件完全浸没在冷却液中,发热器件与液体直接接触,并进行热交换。

近年来,算力需求推动数据中心功率密度不断提升,发热量及能耗持续攀升。同时,“东数西算”的启动及“双碳”战略的实施对数据中心PUE提出更为严苛的要求,传统风冷方案已难以满足数据中心IT设备散热需求。在此驱动下,液冷技术正以高效低碳的优势,成为了行业革命性的解决方案。

受访专家表示,“东数西算”的大规模部署给液冷技术的推广带来了机遇的同时,也给液冷供应商提供了更广阔的市场空间。未来,应从应用需求牵引入手,吸引更多企业参与到产业链建设中,形成有共识的规范标准和良好产业生态,降低液冷技术的使用成本,从而最终实现液冷技术的经济效益与社会效益、环境效益的最大化。

突破散热天花板

从微软把数据中心放到海底,Facebook在北极圈附近建设数据中心,到阿里云千岛湖数据中心使用深层湖水制冷,不少企业都在设法利用自然条件降低数据中心的散热能耗。

然而,数据中心的节能降耗不能只依靠选址,越来越多的企业开始采取新一代节能技术。而液冷技术作为一条重要节能路径,日益受到行业认可。

据开源证券分析,液冷数据中心基础设施市场接受度不断提高,并将在互联网、金融和电信等行业拥有较好的应用前景。

液冷,是以液体取代空气作为冷媒,与发热部件进行热交换,带走热量的技术。

在我国,近年来随着算力需求抬升,数据中心规模扩大,功率密度和设备产热量大增,数据中心的制冷系统面临着严峻的散热考验。

科华数据液冷技术总监魏芳伟告诉南方财经全媒体记者,相较于传统风冷技术,采用液冷技术可以满足高功率密度机柜的散热需求。同时,液冷技术的高效散热能力将有效提升服务器的使用效率和稳定性。

“采用风冷的数据中心通常要求功率在12kW以内,而随着服务器单位功耗增大,机柜的功率往往超过15kW。对于现有的风冷数据中心而言,这已经达到空气对流散热能力的天花板。而液冷技术作为一种散热能力更强的技术,可以支持更高的功率密度。”魏芳伟表示。

解决散热问题的同时,采用液冷技术在节能减耗上也有突出优势。中国信通院云计算与大数据研究所数据中心部副主任谢丽娜则指出,液体天然的导热优势和靠近发热设备的散热方式,使得液冷技术在高效制冷方面成效突出,可实现超高热负荷下的制冷,能有效降低能源消耗比,大幅降低数据中心PUE。

“电能利用效率”(PUE)是数据中心关键能效考核指标之一,是数据中心总设备能耗和IT设备能耗之间的比率。PUE越接近1,表明数据中心的非 IT 设备的能耗越少,能效水平越高。

2022年2月,“东数西算”工程全面启动之时,在优化算力资源配置之外,就为数据中心产业设定了严格的绿色低碳标准。

根据“东数西算”工程要求,内蒙古、贵州、甘肃、宁夏四处集群枢纽设立的数据中心集群PUE应控制在1.2以内;京津冀、长三角、粤港澳大湾区、成渝四处集群枢纽设立的数据中心集群PUE则要控制在1.25以下。

“液冷凭借其节能、高效、低耗等特点,是突破数据中心节能瓶颈的有效途径。‘东数西算’的大规模部署给液冷技术的推广带来了机遇的同时,也给液冷供应商提供了更广阔的市场空间。”谢丽娜表示。

此外,她还提到相比空气而言,液体比热容不受海拔与气压影响,因此液冷数据中心在“东数西算”西部集群枢纽的一些高海拔地区仍然可以保持较高的散热效率。

据了解,目前已有建成运营的液冷数据中心PUE低至1.1以下,可有效实现“东数西算”下绿色数据中心绿色化的要求。

浸没式液冷赛道爆发在即

政策和需求的双重催化之下,液冷成为诸多企业重点发展的制冷技术,商业化应用逐步推进。

《数据中心白皮书(2022年)》显示,我国在液冷技术的规模应用上已积累了先进的经验,阿里巴巴、百度、腾讯、华为、中科曙光等IT企业已有成熟的液冷技术应用案例。

目前,液冷技术主要有两种主流部署方式,分别是冷板式和浸没式。其中,冷板式液冷发展较早,也是相对成熟的技术路线。

据了解,冷板式液冷是一种间接冷却方式,液体不直接接触发热的器件如服务器,而是通过装有液体的冷板导热,然后通过液体循环带走热量,安全和稳定性更强。

简而言之,冷板式液冷就像给服务器铺上“凉席”,无需对数据中心内设备设施进行重新改造,可操作性更强。

但值得注意的是,由于冷板散热的特点,应用冷板方案时必须叠加两套制冷系统,导致成本有所上升。

然而这也被业内视为新的机会。秦淮数据首席技术官张炳华认为,根据服务器风液冷却比例不同,服务器的CPU/GPU等大功率发热部件通过冷板式液冷进行冷却,其他比如服务器的硬盘、网卡等少量发热部件采用风冷模式进行冷却。在不改变服务器形态的条件下,风液两种冷却模式有机结合解决了高功率密度计算散热难题,确保ICT设备安全、高效运行。此外,冷板式系统比风冷系统更容易进行余热回收,实现能源再利用,提高能源利用效率。

实际上,液冷技术与风冷技术共同应用的“风生水起”正是近年来多家企业的探索方向。以科华数据为例,其推出的冷板式液冷方案中便采用了“风冷+液冷”的模式,其中液冷系统散热占比60%~80%,剩余热量则由风冷系统提供散热,数据中心PUE可至1.2以下。

此外,目前液冷基础设施也在不断向预制化方向发展。例如,秦淮数据的相关技术已经在中国超大规模数据中心落地,并将技术出口海外。2022年10月开园的秦淮数据马来柔佛超大规模数据中心一期,采用“预制板式液冷模块化数据中心技术”,通过国内预制生产、整体出海、现场拼装的交付模式,采用“冷板液冷+空气冷却(AHU)”的解决方案,在11个月内就已完成交付。这也是中国首个热带地区冷板液冷规模应用的成功案例,实现了PUE值低于1.2,能源利用效率较传统制冷系统提高了50%。

在冷板式液冷方案逐渐落地的同时,浸没式液冷也开始日渐受到数据中心建设者的青睐。

谢丽娜分析,浸没式液冷使用冷却液作为热传输媒介,液体具有优越的导热率和比热容特性,因此可以更快地传导以及更有效地吸收热量,支持的机架功率密度可达60kW。此外,服务器可以紧密排列,内部实现无风扇设计,具有较高的能源利用效率、更优的空间利用率,且噪声更低。

“随着国家政策对数据中心能效要求的缩紧以及数据中心的功率密度的不断增加,浸没式液冷技术将成为数据中心建设者的优选方案,这也是这项技术火热的原因。”她预测。

亟需构建良好产业生态

但并非所有数据中心都适合“泡”起来。中国建筑科学研究院有限公司城乡规划院院长周海珠坦言,对于老旧数据中心而言,使用液冷技术进行改造会十分困难,不亚于做一场技术层面的“大手术”。

“风冷和液冷两种技术模式对于数据中心的层高、承重、配电等的诸多指标要求不同,使得改造较难实现。如果对现有的老旧数据中心进行液冷技术改造,会大幅度增加数据中心改造和运维成本,但同时也会大幅度降低后期运行成本。”中国建筑科学研究院有限公司智慧城市研究中心主任范小荣解释道。

在液冷走向规模化的过程中挑战不止于此。周海珠也告诉南方财经全媒体记者,液冷确实可以降低PUE,并解决高功率密度散热等问题,但是液冷也存在着方案和IT设备强耦合、服务器运维不方便等问题。

在谢丽娜看来,目前国内外均处于探索试验阶段,距离大规模的商用普及仍有一段距离。而目前液冷技术的发展主要面临的问题是缺乏技术行业标准、规范等的指引,各企业的技术路径多种多样、新兴的产品千差万别,液冷进行标准化适配和部署的难度很大。此外,由于缺乏充分的规模部署验证,目前液冷数据中心的可靠性问题存在一定争议。

对此,她认为接下来需要从应用需求牵引入手,吸引更多企业参与到产业链建设中,大家形成有共识的规范标准,降低液冷技术的使用成本,形成良好的产业生态,从而最终实现液冷技术的经济效益与社会效益、环境效益的最大化。

事实上,目前业内已展开探索,包括联合产业链上下游开展液冷方面的关键技术研究、标准制定等各项工作已经逐步展开,目前我国首批的数据中心液冷行业标准也已经发布,涵盖浸没式、冷板式等主要液冷方式的技术要求和测试方法,及液冷能源使用效率要求和测试方法、冷却液体技术要求和测试方法等内容。

“随着新建数据中心要求的PUE的值越来越低,液冷技术的运用还是处于一个发展扩大的趋势。未来在“双碳”角度的驱动下,液冷的市场潜力还是十分可观的。”周海珠表示。

魏芳伟则认为,液冷不仅是散热方式的改变,更可能变革整个数据中心生态。随着IT云建设规模、建设密度的继续攀升,以及液冷产业生态体系的逐步成熟,对数据中心服务器的计算性能、延迟、吞吐、散热、定制化等方面提出了更高要求。

(作者:李润泽子,郭美婷 编辑:诸未静)