新加坡SMC创新液体冷却技...

新加坡SMC创新液体冷却技术 引领数据中心绿色革命

17500

(8月12日,新加坡)在全球数字化转型的浪潮中,数据中心作为信息处理的核心,其能耗问题逐渐成为社会关注的焦点。Sustainable Metal Cloud(简称SMC),一家领先的本地数据中心业者,通过采用先进的液体冷却技术,不仅保障了强大的计算能力,更在节能减碳方面取得了突破性进展,在电源使用效率方面明显优于新加坡资讯通信媒体发展局此前设立的标准。

随着生成式人工智能的快速发展,数据中心的能耗问题日益凸显。SMC通过创新的液体冷却技术,成功打造了绿色、高效的数据中心,实现了能源消耗的显著降低的目标。设在新科电信媒体(ST Telemedia)数据中心大楼的SMC数据中心“可持续人工智能工厂”,通过微调LLaMa-2-70B大语言模型(LLM),使得其能源消耗比传统方式所需电力降低了45%,每个节点每月产生的二氧化碳也减少了2.21吨。

新加坡SMC首创液体冷却技术,大大改善 数据中心的能耗问题

长期以来,摩尔定律(Moore’s Law)在全球数码革命中定义了微晶片上可容纳的晶体管数量,每两年就会翻倍,而微晶片的性能会提高一倍。近年来,随着人们对数码领域的日益精进,人工智能领域出现了“新摩尔定律”,其断言未来计算能力的提升,将更多依赖于异构计算(heterogeneous computing)、3D晶片堆叠等创新技术,而非仅靠晶体管密度的增加。SMC正是这一理念的践行者,通过技术创新,不断推动数据中心的能效提升。

SMC联合创始人兼联合首席执行官柯蒂斯(Oliver Curtis)表示,英伟达的Blackwell B100图像处理器(GPU)机架的热设计功耗(thermal design power, 简称TDP)已经高达70kW(千瓦),而全球数据中心基本上都是为容纳约10千瓦的机架而建造,仅有5%的数据中心可以处理至少50千瓦的TDP,现有的GPU的TDP已远超传统数据中心的设计标准。TDP是指中央处理器(CPU)或图像处理器在运行应用程序达到最大负荷时,可产生的热量。

SMC在新加坡的数据中心采用液体冷却技术,电源使用效率(Power Usage Effectiveness,简称PUE)仅为1.1,远低于行业平均水平。英伟达的H100图像处理器是全球人工智能业界训练大语言模型和运行生成式AI的热门选择,以其为例,若一个数据大厅全是H100图像处理器,能耗可高达14千瓦,但在SMC的数据中心,则可降低至7.7千瓦,能耗远远低于传统数据中心。

MLPerf基准测试是由学术界和工业界共同组成的非营利性组织,其目的在于建立一个公平、透明且可复现的机器学习性能评估平台。今年6月发布的MLPerf(Machine Learning Performance)基准测试数据显示,与传统风冷数据中心托管的GPU云相比,参与了GPT-3 175B以及512 H100张量计算核心(Tensor Core)GPU测试的SMC数据中心,可节省接近于50%的能源。

新加坡于2024年5月30日正式推出了绿色数据中心路线图,路线图的重点在于推动数据中心使用绿色能源以及提高数据中心在能源利用方面的效率,以实现本地数据中心的可持续发展的目标。新加坡本地数据中心的用电量占全国总量的约7%。一座数据中心要达到新加坡建设局与资媒局的绿色建筑标志白金认证,其PUE至少须达到1.3,数值越低表示效率越高。

在1.3的基础上进一步优化PUE,是绿色数据中心发展过程中的阶段性目标。未来几年,新加坡数据中心容量将增加至少300兆瓦,而“绿色数据中心路线图”将为使用绿色能源的数据中心经营者额外保留200兆瓦的容量。同时,为了支持具1.3或更低PUE的节能数据中心的发展和运营,新加坡资媒局也在尝试与业界共同制定要求更高的标准及认证。