智算时代下的数据中心:供配电与制冷的新考量

玩数据还有点懒 2024-10-13 06:53:40

随着AI技术的迅猛发展,传统的数据中心已无法满足日益增长的计算需求,全球的算力版图正悄然发生巨变。如今,传统数据中心正在向人工智能算力中心(智算中心)转型,这不仅仅是规模上的扩大,更是技术架构的全面革新。

智算时代算力需求不断变化

数据中心制冷也曾面临和锂电池一样的困境。

随着智算中心芯片和服务器密度的不断提升,散热问题成为业内关注焦点。传统风冷散热方式已难以满足高密度、高功率的需求,液冷制冷技术应运而生。然而,液冷技术的应用也面临着产业链成熟度低、成本高、可靠性待验证等问题。

当然,在今天,液冷的境遇相比于锂电池要好上一些。这是因为2023年以来智算需求的突飞猛进迅速推高了智算设备的功率,液冷散热成为了屈指可数的选择。同时,散热作为“日常必需”,相比于UPS和储能这些“备用”需求,其应用更加紧迫。

因此,虽然液冷依旧面临着机房改造、服务改造、成本高,以及运维不成熟、冷却液选型的问题,业内的液冷部署意愿和实际案例也开始飞速增长。无论是浸没式还是冷板式或适应当前需求的风、液混合模式都有很多厂商在探索实践,这里就不一一赘述。

智算中心将会遇到新挑战

作为新型的智算算力工厂,AIDC为各行各业打造新质生产力奠定了坚实基础。截至2024年上半年,国内已经建设和正在建设之中的智算中心超过250个。专注于人工智能和大数据处理的AIDC与传统数据中心在技术重点、应用场景、能耗管理、发展趋势等诸多方面存在显著差异。

从大约20年前企业刚开始“上云”,到今天纷纷落地AI应用,安全从来都是头等大事。从华为的大量实践来看,安全可靠作为核心需求,在智算时代的重要性进一步提升。

众所周知,AIDC的投资巨大,主要体现在对GPU、DPU等芯片需求的增加,以及单机柜功率的显著提升。而随着AI基础设施规模和投资的增加,导致并行计算故障域扩大,且单次回退损失增加。尤其是在万卡集群甚至十万卡集群需求快速涌现的情况下,AI基础设施面临的安全性挑战进一步加剧。

与传统算力相生相伴的就是高功耗、高排放。今天,AI带来了算力的爆炸式增长,AIDC中芯片和服务器的功率密度越来越高,对制冷和供电也提出了更严苛的要求。绿色低碳是实现算力高质量发展的关键目标之一。信通院的数据显示,截至2023年底,我国数据中心在用的810万标准机架总耗电量达到1500亿KWh,数据中心碳排放总量为0.84亿吨。面对大容量超大集群获取电力难,碳排高、能耗高,传统风冷散热无法支撑高功率密度等挑战,AIDC的绿色低碳之路任重道远。

当前,智算业务的迅猛增长加速了数据中心上线周期。市场不确定性的增加、技术的快速迭代,要求数据中心基础设施必须具备弹性演进、快速交付的能力,以便更好地降低初期投资成本,满足用户当前需求的同时,还能兼顾未来发展升级。

从满足智算发展需求的角度来说,安全可靠、绿色低碳、弹性演进是今天AIDC必须具备的基本能力,同时也是华为数据中心秉承的核心理念和创新基因所在。

免责声明:

1、本号不对发布的任何信息的可用性、准确性、时效性、有效性或完整性作出声明或保证,并在此声明不承担信息可能产生的任何责任、任何后果。

2、 本号非商业、非营利性,转载的内容并不代表赞同其观点和对其真实性负责,也无意构成任何其他引导。本号不对转载或发布的任何信息存在的不准确或错误,负任何直接或间接责任。

3、本号部分资料、素材、文字、图片等来源于互联网,所有转载都已经注明来源出处。如果您发现有侵犯您的知识产权以及个人合法权益的作品,请与我们取得联系,我们会及时修改或删除。

0 阅读:1

玩数据还有点懒

简介:感谢大家的关注