Penn State新型AI利用实时天气数据,将数据中心冷却成本降低25%

打印派   2026-04-07 09:28:12

随着云计算和人工智能需求的持续攀升,美国各地数据中心正面临前所未有的运营压力。如何在控制能源成本的同时不牺牲性能,成为行业亟待解决的难题。近日,宾夕法尼亚州立大学(Penn State)的一个研究团队提出了一项创新方案:利用人工智能技术,从数据中心最大的能耗环节——冷却系统入手,实现降本增效。

该团队开发了一款软件,其核心是一个基于物理法则的AI模型,能够实时分析气候与经济数据。系统会在设施的“数字孪生”(即虚拟副本)中进行训练,预先模拟不同场景下的调控效果,再在现实环境中执行最优策略。通过这种方式,AI能够动态建议数据中心如何及何时调整冷却强度,从而提升效率、降低电费。

Penn State新型AI利用实时天气数据,将数据中心冷却成本降低25%

冷却系统通常占数据中心总用电量的40%左右。研究负责人、宾州州立大学建筑工程教授王达佐指出:“目前冷却就消耗了数据中心约40%的电量——仅仅是为了维持设施正常运行。”运营商还面临天气波动和电价不稳的双重挑战,这些因素会迅速推高运营成本、挤压利润。传统冷却策略依赖固定温度目标,难以灵活应对。“当电价高涨时,固定的热目标会导致大量财务损失,”王达佐补充道。

新AI系统突破了这一局限。它能根据外部条件动态调节冷却速率:在电价低时加大冷却,在电价高时适度回调,同时始终确保设备运行在安全范围内。

为训练该AI,团队构建了一个模拟真实数据中心环境的数字孪生模型,涵盖温度、湿度及设备约束等参数。系统采用“物理信息强化学习”方法,将工程规则与机器学习相结合,确保AI的决策既安全又实用。研究团队在得克萨斯州休斯顿的一个模拟数据中心进行了测试——该市的高温高湿环境为优化算法提供了严峻挑战。AI在保证可靠性的前提下,成功学会了冷却策略的优化调节。

研究第一作者、博士生维斯瓦纳坦·加内什表示:“每项用于数据中心冷却的硬件都有不可逾越的运行范围,我们已将这些约束整合到建模中。”这种方案不仅避免硬件损坏风险,还减少了对大规模训练数据的依赖——而后者正是许多AI系统的瓶颈。

除了数据中心,该软件还有望提升加密货币挖矿的能效。挖矿系统需持续运行以解决复杂数学问题,冷却成本因而成为一大开支。通过结合有利天气与低电价时段进行智能冷却,AI系统可显著改善挖矿收益。研究人员强调,相比升级硬件(如液冷系统),他们的方案提供了一种更低成本的替代路径:运营商无需更换基础设施,仅通过软件优化就能挖掘现有系统的节能潜力。

该研究成果将于今年5月在IEEE ITherm会议上正式发布。


0

11 0

发表评论

登陆后参与评论