随着云计算和人工智能需求的持续攀升,美国各地数据中心正面临前所未有的运营压力。如何在控制能源成本的同时不牺牲性能,成为行业亟待解决的难题。近日,宾夕法尼亚州立大学(Penn State)的一个研究团队提出了一项创新方案:利用人工智能技术,从数据中心最大的能耗环节——冷却系统入手,实现降本增效。
该团队开发了一款软件,其核心是一个基于物理法则的AI模型,能够实时分析气候与经济数据。系统会在设施的“数字孪生”(即虚拟副本)中进行训练,预先模拟不同场景下的调控效果,再在现实环境中执行最优策略。通过这种方式,AI能够动态建议数据中心如何及何时调整冷却强度,从而提升效率、降低电费。

冷却系统通常占数据中心总用电量的40%左右。研究负责人、宾州州立大学建筑工程教授王达佐指出:“目前冷却就消耗了数据中心约40%的电量——仅仅是为了维持设施正常运行。”运营商还面临天气波动和电价不稳的双重挑战,这些因素会迅速推高运营成本、挤压利润。传统冷却策略依赖固定温度目标,难以灵活应对。“当电价高涨时,固定的热目标会导致大量财务损失,”王达佐补充道。
新AI系统突破了这一局限。它能根据外部条件动态调节冷却速率:在电价低时加大冷却,在电价高时适度回调,同时始终确保设备运行在安全范围内。
为训练该AI,团队构建了一个模拟真实数据中心环境的数字孪生模型,涵盖温度、湿度及设备约束等参数。系统采用“物理信息强化学习”方法,将工程规则与机器学习相结合,确保AI的决策既安全又实用。研究团队在得克萨斯州休斯顿的一个模拟数据中心进行了测试——该市的高温高湿环境为优化算法提供了严峻挑战。AI在保证可靠性的前提下,成功学会了冷却策略的优化调节。
研究第一作者、博士生维斯瓦纳坦·加内什表示:“每项用于数据中心冷却的硬件都有不可逾越的运行范围,我们已将这些约束整合到建模中。”这种方案不仅避免硬件损坏风险,还减少了对大规模训练数据的依赖——而后者正是许多AI系统的瓶颈。
除了数据中心,该软件还有望提升加密货币挖矿的能效。挖矿系统需持续运行以解决复杂数学问题,冷却成本因而成为一大开支。通过结合有利天气与低电价时段进行智能冷却,AI系统可显著改善挖矿收益。研究人员强调,相比升级硬件(如液冷系统),他们的方案提供了一种更低成本的替代路径:运营商无需更换基础设施,仅通过软件优化就能挖掘现有系统的节能潜力。
该研究成果将于今年5月在IEEE ITherm会议上正式发布。
11 0
登陆后参与评论
2026-04-07 10:06:45
2026-04-07 09:34:24
2026-04-07 08:58:39
2026-04-03 09:07:28
2026-04-03 09:04:10
2026-04-03 08:59:54
2026-04-02 08:34:02
2026-04-01 15:19:39
2026-04-01 15:03:45
2026-04-01 09:17:34
2026-03-31 10:35:45
2026-03-30 10:31:05