对抗知识焦虑,从看懂这条开始
App 下载对抗知识焦虑,从看懂这条开始
App 下载
数据中心|算力租赁|高性能服务器|液冷技术|AI算力|人工智能
当你刷短视频、用AI写方案时,背后的算力中心正经历一场悄无声息的革命——不是加了更多服务器,而是给服务器“泡了澡”。2026年国内高性能算力服务器的液冷渗透率已突破40%,部分头部厂商甚至超过50%。这串数字的背后,是传统算力租赁行业的利润公式正在被彻底改写:过去靠堆硬件赚差价,现在靠“冷”就能挖出真金白银。但液冷到底是怎么让算力更赚钱的?这背后的逻辑,比你想象的要复杂得多。
你可以把传统算力中心的散热想象成给一群发烧的人吹电风扇——风越大,耗电越多,还总有人吹不到。而液冷,相当于直接给每个发烧的人敷上冰袋。
液体的比热容是空气的3400多倍,导热能力是空气的25倍,能以极小的体积带走巨量热量。目前主流的液冷技术分三类:直触芯片液冷是给CPU、GPU贴专属“冰贴”,冷却液通过冷板直接吸走核心热量,占当前液冷市场近50%;后门热交换器是给机柜装“空调外机”,热空气经过时直接被液体降温,适合老机房改造;浸没式液冷则是把整个服务器泡在绝缘冷却液里,散热效率最高,能支持单机架150kW以上的功率密度,是传统风冷的5到10倍。

更关键的是,液冷能让服务器摆脱“热降频”的束缚——传统风冷下,CPU温度一旦超过阈值就会自动降速,相当于让运动员在38度高温下跑马拉松。液冷能把芯片温度稳定控制在45℃左右,让服务器始终满负荷运行,硬件利用率能提升20%以上。

被忽略的关键在于,液冷不是单纯的技术升级,而是给算力租赁行业重新算了三本账。
第一本是能耗账。传统数据中心的冷却能耗占总能耗的30%-70%,液冷能把这个比例降到5%以下。以1MW的IT负载为例,液冷每年能节省近50万美元电费,在高电价地区这个数字能翻近一倍。AWS的实践显示,液冷系统能让数据中心的PUE(电源使用效率)从行业平均的1.35降到1.1以下,极致案例甚至能达到1.03。
第二本是空间账。液冷支持的单机架密度是传统风冷的3-6倍,10000平方英尺的空间能压缩到2500平方英尺,每年能节省上百万美元的土地租金。对于寸土寸金的城市数据中心来说,这意味着在同样的空间里能塞进3倍以上的算力,单位面积的营收直接翻番。
第三本是硬件寿命账。稳定的低温环境能让服务器寿命延长20%-40%,维护成本降低75%。传统服务器的折旧周期是3年,液冷服务器能拉长到4-5年,相当于每台服务器多赚了1-2年的租金。
更值得关注的是,液冷正在让算力租赁从“卖硬件”转向“卖服务”。过去租赁商比拼的是谁能拿到更便宜的GPU,现在比拼的是谁能提供更高效的液冷运维、更稳定的算力输出。一些头部租赁商已经开始推出“液冷算力包”,把冷却、运维、算力打包定价,利润率比单纯租硬件高了近30%。
当国际巨头还在纠结技术路线时,国产液冷厂商已经在中低端市场站稳了脚跟。深圳英维克的液冷设备已进入AWS、谷歌的供应链,国内市场占有率超过20%;广东赢润热能的冷板技术能满足单芯片700W以上的散热需求,成为多家AI服务器厂商的核心供应商。2026年国产液冷解决方案在中小型数据中心的渗透率已超过40%,国产替代趋势明显。
但繁荣背后也藏着隐忧。目前液冷行业缺乏统一的国家标准,不同厂商的冷却液、冷板接口互不兼容,用户一旦选择某个品牌就很难切换。同时,液冷系统的维护门槛极高,需要专业的技术人员监测流量、温度、液体纯度,而国内相关人才缺口超过10万。更关键的是,高端冷却液市场仍被3M等国外厂商垄断,一瓶20升的工程氟化液售价超过4000美元,占液冷系统初期成本的近20%。
这些问题不是无解,而是需要产业链协同破局。Open Compute Project等组织已经在推动液冷接口标准化,国内高校也开始开设液冷相关专业,但要真正实现液冷的大规模普及,还有2-3年的路要走。
当我们谈论液冷时,我们谈论的其实是算力行业的“绿色革命”。它不是让服务器变得更酷,而是让算力变得更高效、更便宜、更可持续。
在AI算力需求爆发的今天,液冷已经从可选技术变成了必备配置。它正在重新定义算力租赁的赚钱逻辑:不是靠堆硬件,而是靠提效率;不是靠赚差价,而是靠做服务。
冷下来的服务器,热起来的算力生意。未来的算力竞争,本质上是一场“冷却能力”的竞争——谁能把服务器的温度降得更低,谁就能在这场算力革命中笑到最后。