• 中文版
  • English
首页 新闻资讯 施耐德、百钰顺、Arista……大厂液冷新动作速览

施耐德、百钰顺、Arista……大厂液冷新动作速览

时间:2025年09月28日

[洞见热管理]获悉,当前随着AI算力爆发,数据中心功耗急速攀升,传统风冷逐渐难以满足高密度部署需求,液冷正在从“可选方案”快速走向“必选项”。本周行业内传来多条重要动态:国内精密制造企业百钰顺快接头打入头部AI芯片供应链;浸没液冷厂商Midas携手Oleon推出植物基液体;施耐德电气发布GB300 NVL72参考设计并联合Compass推出模块化白空间方案;Flex推出模块化机架级CDU;Arista研发液冷交换机应对高密度网络需求。


这些消息从核心部件、整机系统到液冷网络设备全方位展示了液冷在AI时代的落地加速,也映射出绿色、模块化和高密度部署正在成为数据中心发展的主旋律。




01

百钰顺切入AI液冷赛道,快接头产品打入头部芯片供应链


随着AI芯片功耗不断飙升,液冷正在从“备选项”走向“必选项”。国内消费电子精密结构件制造龙头——重庆百钰顺精密工业股份有限公司(以下简称“百钰顺”),近日在AI液冷赛道迎来关键突破:其AI液冷快接头产品已正式向头部AI芯片客户送样,成功叩响全球高端液冷供应链的大门。这一成果标志着百钰顺凭借在消费电子领域积累的客户资源与制造口碑,已迅速对接到国际优质供应链体系。



微信图片_2025-09-28_101526_257.jpg


此次突破背后,是C轮融资的关键支撑。公司新一轮融资引入重庆市首支AIC创投基金等头部金融机构股东,带来资本与产业资源的双重赋能。根据规划,百钰顺将在2025年底实现AI液冷快接头规模化量产,并在2027年底拓展至AI服务器液冷全系列零部件,涵盖直通型和L型快接头等核心产品。随着产能释放与技术迭代,公司有望从细分领域龙头成长为全系列零部件解决方案提供商。


当前,英伟达GB300超级芯片TDP高达1400W,单柜功率需求已从5-10kW跃升至30-100kW,传统风冷难以为继。国家更要求新建数据中心PUE≤1.25,而液冷可轻松将PUE降至1.05以下。据信通院测算,2024年我国智算中心液冷市场规模达184亿元,同比增长66.1%,预计2029年突破1300亿元;全球市场同样高速扩张,2026年AI服务器液冷市场规模有望达85.8亿美元,2024-2029年复合增长率高达46.8%。


百钰顺的底气来自其120项专利(其中22项为发明专利)和长期精密加工积累,恰好匹配液冷快接头对材料、精度与可靠性的严苛要求。据测算,以GB300液冷系统为例,快接头价值量占比达22.9%,对应2026年全球市场规模接近20亿美元。正因如此,公司选择从快接头切入,既能充分发挥技术优势,又能切中高速增长的蓝海市场。


未来,百钰顺将进一步延伸液冷产业布局,从快接头逐步拓展到冷板式、浸没式等多类型液冷服务器系统部件,打造“核心部件+整机系统部件”一体化能力。正如董事长所言:“AI液冷正从‘可选项’变为‘必选项’,公司将持续深化研发与产能布局,携手全球伙伴共建液冷生态,引领产业升级。”




02

Midas携手Oleon:植物基浸没液冷液获正式认证


近日,浸没式液冷厂商 Midas Immersion 宣布,其浸没液冷系统正式通过了 Oleon 植物基介电液体 Qloe 的兼容性认证。这意味着,Oleon的可再生、可降解液冷液体将正式应用于Midas的浸没液冷产品中。


微信图片_2025-09-28_101533_369.jpg


Midas首席执行官 Scott Sickmiller 表示:“数据中心不应在高算力密度与可持续性之间二选一。通过将Midas成熟的浸没平台与Oleon的Qloe液体结合,客户既能获得可靠的散热裕度,又能拥抱可再生、可生物降解的绿色化学方案,从容迎接大规模AI时代。”


Oleon数据中心流体负责人 Maarten Trautmann 则指出:“与Midas的合作非常顺利。Midas拥有丰富的浸没式液冷部署经验,而我们已验证了双方系统的兼容性,未来将在全球范围内深化合作。”


Oleon隶属于法国绿色化学集团 Avril,今年推出的 Qloe 液冷液体主打全生物降解、无毒环保,同时具备高性能散热能力,已在巴黎的一个新建数据中心中被采用。


Midas成立于2010年,总部位于美国德州,主营12U和50U浸没式液冷槽,以及面向加密算力的液冷产品与模块化数据中心。其旗舰50U XCI系统单柜可支持 150kW 功率,全球已部署超 500MW 的浸没式液冷容量。此前,Midas也曾与Castrol合作液冷液体。




03

施耐德电气发布英伟达GB300 NVL72新参考设计,并携手Compass推出模块化白空间方案


近日,施耐德电气(Schneider Electric)宣布推出两项全新参考设计,以帮助数据中心运营商快速部署高密度 Nvidia GB300 NVL72硬件。同时,公司还与Compass Datacenters合作,联合开发了预制化、模块化的白空间建设方案。



微信图片_2025-09-28_101536_056.jpg


两大新参考设计施耐德与英伟达联合开发的参考设计旨在简化AI基础设施的设计、部署与运维流程:

参考设计一:面向集成电源管理与液冷控制系统,支持与Nvidia Mission Control互操作,涵盖集群与工作负载管理功能,也可应用于Grace Blackwell系列参考架构。

参考设计二:聚焦AI工厂的高密度部署,可支持单机架 142kW 的NVL72机柜。在单个数据大厅中,最多可承载三套NVL72集群,总计 1,152颗GPU,采用液-液CDU与高温冷水机组,专为高性能AI算力设计。


该设计同时符合ANSI与IEC标准,为数据中心提供包括供电、散热、IT空间与生命周期软件在内的整体蓝图。施耐德方面表示,这些方案让运营商能在AI基础设施到来之前,预先部署高密度供电与液冷控制系统,以优化成本、效率和可靠性。


模块化白空间方案

微信图片_2025-09-28_101538_266.jpg

在空间建设方面,施耐德电气与Compass联合推出 EcoStruxure Pod 预制化模块化解决方案,可快速完成数据中心白空间的交付。该方案集成了冷热通道封闭、行级与后门换热器散热、布线、高功率母线槽及液冷水路,大幅缩短现场安装周期。首批 EcoStruxure Pod 模块已进入生产阶段,将于今年秋季率先在Compass数据中心园区投入部署。




04

Flex携JetCool发布新型模块化CDU:单柜散热功率可达1.8MW


全球电子制造巨头 Flex(前身为Flextronics)近日宣布,携旗下液冷子公司 JetCool 推出全新模块化机架级冷却分配单元(CDU)。该系列CDU单台可提供 300kW 散热能力,支持2至6台组合部署,单柜散热功率最高可达 1.8MW专为AI、高性能计算(HPC)及超大规模数据中心而设计。模块化架构使得运营商能够按需扩展,从小规模起步,逐步增加容量,满足未来AI负载的快速增长需求。


微信图片_2025-09-28_101540_283.png



Flex通信、企业与云业务总裁 Rob Campbell 表示:“在AI与高性能计算带来前所未有的需求下,客户需要的不仅是容量,更是能够在整个散热生态中提供可扩展性、效率与简化管理的合作伙伴。本次发布体现了Flex从设计、制造到部署和服务的全流程能力,为客户提供契合当下挑战的解决方案,同时奠定未来扩展的基础。”


此次新品发布也是Flex更广泛CDU市场战略的一部分,公司还计划在 2026年4月 推出专用的行级CDU产品。Flex总部位于美国德州,是全球第二大电子制造服务公司(年营收264亿美元,仅次于和硕)。2024年11月,Flex收购液冷企业 JetCool,后者以“微对流直接液冷”技术著称——通过冷却液射流直接作用于芯片表面,从而实现更高效的散热。




05

Arista开发液冷交换机,瞄准AI数据中心高密度网络需求


Arista 在近期的 Hot Interconnects大会 和分析师日上披露,公司正在研发液冷交换机及液冷机架,以满足AI数据中心的高速互连需求。Arista正开发基于 ORv3W 的数据中心机架,功率容量可达 120kW,可容纳多达 32台AI网络结构交换机,并集成光纤配线架、管理交换机与电源单元。该机架配备紧凑型液冷接口,专为高密度交换机散热优化。


微信图片_2025-09-28_101542_320.png


联合创始人 Andreas Bechtolsheim 表示:“我们正在设计全液冷交换机机架,可同时支持交换机、配线架与电源,全面面向液冷数据中心,以实现高密度网络配置。”Arista指出,相比风冷,液冷交换机可带来多重好处:

节能:移除风扇可减少 5–10% 功耗

可靠性:降低振动与故障率

扩展性:满足AI集群规模化互连需求

Bechtolsheim在大会上直言:“AI数据中心需要液冷交换机,这不仅降低功耗与失效率,还能实现大规模网络扩展。”


目前多数网络设备仍以风冷为主,整体散热需求低于CPU与GPU。但在大规模AI集群中,交换机能耗已不可忽视。Arista曾在白皮书中举例:在一个包含 16,390台服务器、13万余颗AI加速芯片 的假想集群中,所需交换机超过 5,000台,机架超过 200个,网络系统功耗接近 9MW。若采用液冷交换机,预计可节省约 900kW 电力,相当于网络层面的 10% 能效优化。目前,英伟达的 CS8500 Mellanox Quantum 网络系统已采用液-气或液-液散热方式,为行业提供了参考路径。


微信图片_2025-09-28_101545_226.jpg