数据中心的下一个胜负手:跳出AI芯片

半导体产业纵横·2026年01月25日 14:04
AI芯片之外,液冷才是关键破局点。

“花几十亿元流片,最终或许只能兑现不到六成的理论价值。”这并非危言耸听,而是当下AI芯片在真实数据中心场景中的普遍现实。

当生成式AI掀起全球算力竞赛,半导体行业的目光多聚焦于:AI芯片公司又推出了性能多么强悍的新品?台积电的先进制程是否更进一步?然而一组数据,却进一步揭示了这场行业狂欢背后的隐形枷锁:

2024年中国数据中心总耗电量达1660亿度,相当于2个三峡水电站的年发电量;约占全国总耗电量的1.68%,预计2030年占比超过5%,2035年占比超过13%。

算力扩张与电力约束的失衡,正在重塑数据中心产业的发展逻辑。

电力瓶颈,比芯片更紧迫 

近期,半导体产业纵横深入AI芯片及数据中心产业一线走访调研,与多位行业资深从业者深度交流后发现,当前AI数据中心电力消耗居高不下的核心瓶颈,主要有三点。

第一点,正如文章开头所言,AI芯片的技术发展和数据中心的实际使用场景脱节,是当前行业电力消耗居高不下的核心问题之一。当前诸多AI芯片研发走进“拼峰值算力”的误区,把算力多少当成核心竞争力,却忽略了数据中心里最关键的“算力够用且省电”的平衡需求。这种失衡主要体现在两方面:

其一,芯片设计和实际任务对不上。主流AI芯片的核心架构,更适合高密度的并行计算,但大模型训练时经常出现“稀疏计算”的情况,两者天然不匹配——很多芯片算力闲着不用,电却照耗不误,形成了“无效耗电”的死循环。其二,应对复杂任务的灵活性不足。随着多模态大模型(既能处理文字、又能处理图片视频)的普及,数据中心常要同时处理视频编辑、写文案、图像识别等多种任务,但现有芯片切换这些任务时效率很低,不仅慢,还会额外消耗更多电力。

第二点,如果说“芯片和场景对不上”是能耗高的“先天设计问题”,那算力需求暴增带来的电力消耗叠加,就是把数据中心变成“电力黑洞”的主要推手。众所周知,摩尔定律揭示的是晶体管数量每 18-24 个月翻倍的技术迭代规律,而当前算力需求的增长周期已缩短至每 3-4 个月翻一倍。2024 年我国智能算力增速高达 74.1%,这一趋势在具体应用场景中更为直观:2025 年发布的 DeepSeek-R1 大模型日活跃用户超 2200 万,仅维持其正常运行就需要约 50 个大型数据中心提供支撑。

与算力需求同步飙升的,是数据中心对电力的极致依赖。如今,“万卡集群” 已不再新鲜,“十万卡集群” 成为科技巨头的竞争新标的 ——OpenAI/Microsoft、xAI、Meta 等企业均在竞相构建规模超 10 万张 GPU 的算力集群。仅以单颗芯片的能耗测算,英伟达 H100 GPU 峰值功耗达 700 瓦,按每小时耗电 0.7 度、全年 61% 的使用时长计算,单颗 H100 年耗电量就达 3740 度;若规模扩大至 10 万颗,仅 GPU 单元的年耗电量就将突破 3.74 亿度。

第三点,除了GPU,数据中心中还有大量的设备,比如服务器(还包含CPU等部件)、网络设备、存储设备、冷却系统和照明等,这些设备无一不需要持续供电。其中数据中心的冷却系统是能耗的主要组成部分之一,总耗电量占到38%以上(有的甚至高达50%)。

数据中心的“电力黑洞” 困境,并非单纯的电力供给不足。从能源利用效率来看,2025年,我国数据中心平均电能利用效率(PUE)约为1.45,与世界先进水平(约1.1-1.2)仍有差距。其中,制冷系统能耗占27%,正成为主要的节能突破口。

根据中华人民共和国国家发展和改革委员会发布的数据中心绿色低碳发展专项行动计划显示,到2025年底,算力电力双向协同机制初步形成,国家枢纽节点新建数据中心绿电占比>80%。在这一硬性要求下,以下四项技术成为发展重点:绿电直连技术、高效冷却技术、IT负载动态调整技术、算-电-热协同技术。

其中在记者与业内人士的交流中,“液冷技术”也是被提及的重点。

液冷技术,关键解法 

数据中心的冷却技术正在经历一场彻底的变革。尤其是在单机柜功率密度超过25kW的高密度场景下,传统的远端风冷已经难以为继,行业正在加速转向更高效的冷却方案——主要是近端风冷和液冷两大方向。其中,高效又节能的液冷技术,已经成为市场的主流选择。

液冷技术分化出三种主流方案:

第一种是冷板式液冷,能精准对准CPU、GPU这些发热核心散热,不仅能效高,改造成本也相对可控,是目前最普及的液冷方案。

第二种是浸没式液冷,直接把服务器完全泡在绝缘冷却液里,散热效率拉满,堪称超高热密度场景的“终极解决方案”。

第三种是喷淋式液冷,通过直接向发热元件喷淋冷却液,用最短的路径实现高效散热,适配特定场景需求。

不过业内人士向半导体产业纵横表示液冷技术是目前的最优解法,但该技术在数据中心普及率并不算高,大约只有10%,尽管行业内存在喷淋式液冷的方案,但是商用情况相对不明朗。

还有业内人士向半导体产业纵横提到,除单纯的液冷技术外,冷板+液冷循环的组合方案也是当前技术布局重点。比如英伟达和AMD在CES上最新发布的英伟达 Vera Rubin NVL72与AMD MI450均采用“冷板贴合+封闭液冷循环”的技术架构。

具体而言,通过定制化冷板直接贴合GPU芯片及其他高发热组件(如供电模块、显存),冷板内部设计微通道结构,冷却液在微通道内高速流动,快速带走热量;吸收热量后的冷却液通过封闭管道进入换热模块,与外部冷却系统进行热交换后降温,再循环回流至冷板,形成完整的散热闭环。这种方案既避免了喷淋式液冷对电子元件的绝缘要求,又解决了风冷的散热效率不足问题,实现了散热效果与设备安全性的平衡。

不过无论是英伟达的NVL72还是AMD的MI450集群,其液冷方案均围绕自身核心算力芯片展开定制化开发。英伟达为Ada Lovelace架构GPU量身设计冷板贴合面,确保冷板与芯片核心发热区域的接触面积达95%以上,减少散热死角;AMD则针对MI450芯片的封装结构,优化冷板的压力分布,避免因冷板压力不均导致芯片损坏,同时适配芯片的高功率密度特性,提升冷却液的流速与换热效率。这种“芯片-冷板”的深度适配,成为保障液冷效果的关键前提。

英特尔的液冷技术主要采用冷板式液冷方案,通过在CPU、GPU等高功耗芯片上安装金属冷板,内部布有微通道,让冷却液流经并吸收运行中产生的热量,实现高效导热。冷板与芯片紧密接触,利用导热界面材料提升热传导效率,无需浸没整个服务器,兼容现有数据中心架构。该技术可显著降低散热能耗,支持更高密度计算部署。

在国内市场,曙光数创在液冷基础设施市场的部署规模处于领先地位。2021年至2023年上半年,曙光数创在中国液冷基础设施市场份额位居第一,占比达56%。其冷板液冷方案和浸没相变液冷方案已广泛应用于字节跳动等头部互联网厂商。

英维克作为全链条液冷的开创者,提供从冷板、快接头到CDU、机柜的全栈产品,截至2025年3月,其液冷链条累计交付已达1.2GW。

具体细分赛道方面,飞荣达在散热产品领域布局广泛,其自主研发的3DVC散热器功耗可达1400W,处于行业领先水平。飞荣达已成为英伟达、中兴、浪潮等企业的核心供应商,液冷模组等产品已实现批量交付。中石科技则在热模组核心零部件和TIM材料上实现了批量供应,VC模组在高速光模块中的应用正加速落地,并积极推进液冷模组的客户导入。

思泉新材也已具备液冷散热模组的规模生产能力,东莞工厂和越南工厂均已做好量产准备。公司正开展750W-3000W液冷技术的研发,包括双相冷板、Manifold、CDU等核心组件。川环科技则成功切入主流液冷供应商体系,其液冷服务器管路产品已通过美国UL认证,并进入奇鋐、英维克、飞荣达等厂商的供应名单。

中国制造业,优势显现 

这场关于数据中心的讨论,早已超越传统IDC建设范畴,演变为一场涉及半导体、能源、通信、安全的系统性变革。而在这场变革中,中国的制造业底座优势正在显现:

世界银行数据显示,中国制造业增加值2010年首次超过美国,居世界首位,成为全球工业经济增长的重要驱动力。

截止2024年,中国制造业规模已经连续15年居世界首位。

2024年数据显示,中国制造业规模大于美国、日本、德国和印度制造业规模总和,相当于两个美国;而美国大于日本、德国和印度之和。

未来的数据中心,从来不是越大越好,而是越“聪明”越好。

这份“聪明”,始于硅片之上的精准创新——打破“唯峰值算力论”,让芯片架构适配真实场景,让每一度电都转化为有效算力;落于冷却技术的高效突破,依托中国制造业全链条优势,推动液冷从细分赛道走向规模化普及,实现散热效率与成本的平衡。

本文来自微信公众号 “半导体产业纵横”(ID:ICViews),作者:丰宁 丰宁,36氪经授权发布。

+1
4

好文章,需要你的鼓励

参与评论
评论千万条,友善第一条
后参与讨论
提交评论0/1000

下一篇

投机热潮,会越来越多以AI之名进行。

3小时前

36氪APP让一部分人先看到未来
36氪
鲸准
氪空间

推送和解读前沿、有料的科技创投资讯

一级市场金融信息和系统服务提供商

聚焦全球优秀创业者,项目融资率接近97%,领跑行业