为加快推进新一代绿色数据中心液冷与热管理、算力电力冷却协同、高效节能系统集成等技术与装备的发展应用,绿色算力融创行动暨数据中心液冷技术创新发展论坛将于2025年9月8-9日在呼和浩特市召开,论坛将“绿色算力融创”与“液冷技术创新”两大主线为牵引,聚焦前沿趋势、标准建设、同期发布数据中心液冷技术需求和科技成果。欢迎相关领域的高校、科研院所、设计单位、数据中心建设单位、运营商及设备厂商等方面的专家、学者、技术人员参会。
在国家“双碳”战略目标引领下,绿色算力基础设施已成为推动数字经济高质量发展与能源结构转型的关键支撑。数据中心作为能耗密集型领域,对冷却技术创新和能效提升提出了更高要求。算力、电力与冷却的深度融合,正在重塑数据中心的能效格局与运营模式。液冷技术凭借其卓越的散热效能、显著的节能降碳潜力和支撑超高功率密度的能力,正加速由探索阶段迈向规模化应用,成为绿色算力的重要底座与发展主流路径。
以下内容为GPT视角对绿色算力融创行动暨数据中心液冷技术创新发展论坛相关领域的研究解读,仅供参考:
绿色算力融创行动暨数据中心液冷技术研究现状
一、绿色算力融创行动:政策与市场双轮驱动
政策顶层设计
“东数西算”工程:作为国家级战略,该工程通过优化数据中心布局,将东部算力需求导向西部绿电资源丰富地区,推动算力与能源协同发展。例如,内蒙古和林格尔新区依托绿电优势,算力规模突破10.1万P,其中智能算力占比达95%,绿电使用比例超80%,成为全国标杆。
能效标准强制约束:国家要求新建大型数据中心PUE(电能利用效率)低于1.3,重点区域如“东数西算”枢纽节点需控制在1.25以下。这一政策直接推动液冷技术从可选方案变为刚需。
市场实践创新
绿电+算力融合:企业通过自建绿电设施或直接采购绿电,降低算力中心碳排放。例如,中国移动在呼和浩特数据中心采用绿电直供,年节水9.5万吨,节省水费86万元;浙江晨丰科技通过增量配电网为算力中心提供低价绿电,形成“绿电支撑算力、算力反哺绿电”的良性循环。
算力券与金融支持:地方政府通过算力券补贴企业用算成本,同时引导金融资本投向液冷等绿色技术。例如,苏州吴江区设立产业基金,创新“算力券”供给机制,降低企业用算门槛。
二、数据中心液冷技术:从边缘走向主流
技术路线分化与突破
冷板式液冷:
现状:当前主流方案,通过金属冷板与服务器核心部件接触散热,兼容性强、改造成本低,适用于存量机房升级。例如,超聚变FusionPoD for AI采用“机柜上走电下走水”设计,实现105kW/Rack功率密度,漏液风险降低95%。
创新:芯片级冷板设计成为焦点。NVIDIA GB200 NVL72架构采用直接芯片液冷(D2C)技术,热阻降低40%以上;沐曦集成电路MXN系列GPU通过三维均温腔技术,使热点温差控制在5℃以内。
浸没式液冷:
现状:适用于高功率密度场景(如AI训练集群),散热效率较冷板式提升显著,但初始投资高、运维复杂。例如,曙光数创在西部(重庆)科学城数据中心采用全浸没相变液冷技术,PUE降至1.04,余热回收可覆盖13万平方米供暖需求。
创新:冷却液材料国产化突破。中航光电开发的液态金属导热膏热导率突破80W/(m·K),填补国产高性能界面材料空白;3M氟化液在浸没式冷却中表现突出,但其环保法规风险推动行业转向水基冷却液和植物基矿物油。
混合架构:结合冷板与浸没优势,例如中国电信在长三角枢纽部署的“双模液冷”方案,浸没式集群PUE低至1.08,同时通过“冷板+空调”混合方案改造存量机房,成本控制在新建项目的60%以内。
标准化与规模化应用加速
标准体系完善:OCP社区推出OAI(开放加速器架构)和UBB(通用基板)标准,支持不同厂商加速器混插;中国信通院牵头制定《服务器液冷系统技术要求》等8项标准,覆盖接口、运维、测试等环节。
成本下降:液冷CDU(冷量分配单元)成本从2020年的200万元降至2024年的80万元,投资回报周期缩短至3年以内,推动液冷从“定制化项目”向“标准化产品”转型。
智能化运维升级
监控体系:现代液冷数据中心建立从芯片到数据中心的五级监控体系,结合机器学习算法优化水流分配,使冷却系统整体能效提升15-20%。例如,某运营商智算中心通过智能系统使液冷集群年可用性达到99.9998%,远超传统风冷的99.9%。
故障预测:开放液冷专业委员会制定的BMC软件适配标准,实现不同厂商GPU管理模块的“热插拔”式兼容,故障定位时间从小时级缩短至分钟级。
三、未来趋势:全液冷原生与算力-能源协同
技术前沿:
全液冷原生设计:从芯片、供电、网络到建筑的全局优化,例如Kyber架构的700kW机柜方案,采用0-800V高压直流供电减少30%能源转换损耗,基于Midplane的背板互联替代90%柜内线缆,为液冷管路留出空间,使PUE突破1.1成为可能。
材料创新:研发“零耗水”液冷系统,如中国移动在某枢纽节点采用闭式冷却塔+干冷器混合系统,全年节水率达85%,为西部缺水地区提供可行方案。
产业协同:
芯片-服务器-冷却液-数据中心协同优化:芯片厂商在处理器设计阶段预留液冷接口,服务器主板与液冷模块协同开发;冷却液企业与系统集成商共建联合实验室,优化流体特性与散热效率。
“液冷即服务”(LCaaS)模式:昆仑技术等企业提供包含设计、部署、运维的全栈服务,客户CAPEX降低30%,推动液冷技术从硬件销售转向全生命周期价值创造。
政策与市场共振:
绿电交易机制完善:国家推动绿电直供、绿证交易,部分先进数据中心绿电使用率达80%左右,液冷技术与绿电的深度融合将成为未来核心趋势。
区域协同发展:八大算力枢纽节点通过强强联合、优势互补,形成全国算力供应网络体系,以一体化网络推进与各类应用场景需求匹配,例如内蒙古围绕AI“全生态”创新突破,深耕模型训练市场,训练参数超万亿。
绿色算力融创行动暨数据中心液冷技术研究可以应用在哪些行业或产业领域
一、通信运营商:构建绿色算力网络底座
应用场景:
通信运营商作为数据中心建设主力军,通过液冷技术降低PUE(电能利用效率),满足“东数西算”工程对西部枢纽节点PUE≤1.25的强制要求。
实践案例:
中国电信:在华北区某大型数据中心采用绿色云图浸没式液冷技术,单台机柜功率密度达48kW(传统风冷仅5-8kW),PUE降至1.05以下,年节电量超3000万度,相当于减少碳排放2.4万吨。
中国移动:在呼和浩特数据中心部署冷板式液冷集群,结合绿电直供,实现PUE1.1以下,同时通过余热回收为周边园区供暖,年节水9.5万吨。
二、互联网与云计算:支撑高密度算力需求
应用场景:
AI训练、大数据分析等场景对单柜功率密度要求极高(如智算中心达100kW/柜),液冷技术成为突破散热瓶颈的关键。
实践案例:
阿里巴巴:在张北数据中心采用浸没式液冷集群,支撑其AI大模型训练,单机柜功率密度提升8倍,PUE从1.6降至1.08,年节省电费超1亿元。
腾讯:在天津数据中心部署冷板式液冷服务器,结合AI温控系统,实现PUE动态优化,最低达1.09,满足其全球业务对低延迟、高可靠性的需求。
三、金融行业:保障业务连续性与节能降耗
应用场景:
金融行业对数据中心可靠性要求极高(可用性≥99.995%),同时需应对交易量激增带来的瞬时高功耗挑战。
实践案例:
工商银行:在上海数据中心采用曙光数创冷板式液冷方案,结合双路供电与液冷冗余设计,确保系统7×24小时稳定运行,同时PUE从1.5降至1.25,年减排二氧化碳1.2万吨。
大连银行:通过施耐德电气SmartCool空调节能解决方案,基于AI动态调节制冷输出,末端空调节电31%,且改造无需业务中断。
四、高性能计算(HPC):突破科研算力极限
应用场景:
气象预报、基因测序、航天模拟等领域需处理海量数据,液冷技术可支持超算中心实现E级算力(百亿亿次/秒)。
实践案例:
国家超算中心:在无锡部署浸没式液冷超算集群,PUE降至1.04,支持其完成全球首个台风实时模拟(分辨率1公里),计算效率提升40%。
中科院:在“地球系统数值模拟装置”中采用冷板式液冷技术,使单机柜功率密度达35kW,满足其对气候模型的高精度计算需求。
五、智能制造与工业互联网:赋能产业数字化升级
应用场景:
工业互联网平台需处理设备传感器实时数据(如每秒百万级),液冷技术可支撑边缘数据中心的高密度部署。
实践案例:
三一重工:在长沙工厂部署液冷边缘数据中心,结合5G+AI质检系统,实现PUE1.1以下,同时支持2000+设备实时监控,故障响应时间缩短至毫秒级。
海尔智家:在青岛工业互联网平台采用冷板式液冷服务器,支撑其C2M(用户直连制造)模式,订单处理效率提升30%,能耗降低25%。
六、能源与电力:优化绿电消纳与碳管理
应用场景:
数据中心与绿电(风电、光伏)协同可降低碳排放,液冷技术通过余热回收实现能源梯级利用。
实践案例:
国家电网:在甘肃酒泉数据中心采用浸没式液冷+余热回收系统,将服务器废热用于区域供暖,年替代标煤1.2万吨,减少碳排放3.1万吨。
南方电网:在广州数据中心部署冷板式液冷集群,结合光伏发电,实现绿电占比超80%,PUE从1.4降至1.15。
七、医疗健康:保障数据安全与低延迟
应用场景:
医疗影像存储、远程手术等场景需低延迟(<10ms)与高可靠性,液冷技术可支持分布式数据中心建设。
实践案例:
协和医院:在北京部署液冷边缘数据中心,结合5G+AI辅助诊断系统,实现PUE1.1以下,同时支持4K影像实时传输,诊断准确率提升15%。
联影医疗:在上海研发中心采用冷板式液冷服务器,支撑其CT/MRI设备的数据处理,计算效率提升50%,能耗降低30%。
八、交通物流:支撑智能调度与实时决策
应用场景:
自动驾驶、智慧港口等场景需处理海量实时数据(如每秒TB级),液冷技术可支持高密度算力部署。
实践案例:
滴滴出行:在武汉数据中心采用浸没式液冷集群,支撑其自动驾驶算法训练,单机柜功率密度达50kW,PUE降至1.08,训练效率提升40%。
上海港:在洋山港部署液冷边缘数据中心,结合5G+AI调度系统,实现集装箱装卸效率提升30%,能耗降低25%。
趋势展望
全液冷原生设计:从芯片到数据中心的五级监控体系将普及,推动PUE突破1.1。
液冷+绿电协同:绿电直供、绿证交易机制完善,部分先进数据中心绿电使用率将达80%以上。
标准化与规模化:随着ODCC等组织推动标准制定,液冷技术将从“定制化项目”转向“标准化产品”,投资回报周期缩短至3年以内。
绿色算力融创行动暨数据中心液冷技术领域有哪些知名研究机构或企业品牌
一、研究机构:标准制定与技术创新引领者
中国电子技术标准化研究院
核心贡献:主导编制《绿色算力基础设施液冷技术发展研究报告》,明确液冷技术对降低数据中心能耗的重要性,推动行业技术规范发展。
行业影响:联合曙光数创等企业发布行业标准,为液冷技术规模化应用提供理论支撑。
开放数据中心委员会(ODCC)
核心贡献:作为非营利性组织,汇聚百度、腾讯、阿里巴巴等巨头,制定液冷技术统一评判标准,推动产业从“中国制造”向“中国设计”转型。
行业影响:成员涵盖曙光、中兴、浪潮等100家企业,加速液冷技术生态构建。
中关村协众创智信息产业促进会
核心贡献:主导编纂液冷技术报告,联合曙光数创等单位推动技术研究成果转化。
行业影响:为政策制定与企业战略提供数据支持,促进产学研深度融合。
二、企业品牌:技术突破与市场应用双轮驱动1. 液冷技术全链条解决方案提供商
英维克
技术优势:全球唯二掌握冷板式与浸没式双路径液冷技术,首创“All in one”全链条液冷系统,单机柜散热能力突破100kW,PUE低至1.15。
市场地位:国内数据中心温控领域龙头,英伟达指定温控供应商,市占率超35%,服务腾讯、阿里、华为等头部客户。
创新实践:推出“液冷+储能”一体化方案,利用夜间低谷电价制冰储冷,降低数据中心用电成本。
曙光数创
技术优势:国内浸没式液冷技术领军者,主导制定行业标准,首创风冷与液冷动态调节系统,综合散热效率提升35%。
市场地位:连续三年稳居液冷基础设施市场首位,2023年市场份额达61.3%,服务中国移动、阿里云等客户。
创新实践:推出天枢系列液冷系统,支持单相、相变两种模式,散热效率达传统风冷5倍。
2. 服务器与数据中心液冷核心供应商
浪潮信息
技术优势:建成亚洲最大液冷研发生产基地,年产能超10万台,冷板式液冷整机柜国内市占率51%。
市场地位:全球液冷数据中心解决方案领导者,自研“源”液冷整机柜支持单机柜功率密度50kW,适配AI服务器高负载场景。
创新实践:交付国内最大规模液冷数据中心(2万台服务器),PUE低至1.09。
高澜股份
技术优势:全球唯一布局服务器与储能双赛道的液冷供应商,独家供应英伟达H100液冷模块,拥有300余项液冷专利。
市场地位:进入字节跳动、阿里、腾讯等核心供应商名单,冷板液冷方案热阻低至0.05K/W。
创新实践:推出“精准散热”双路线产品体系,覆盖微通道散热与环保氟化液浸没技术。
3. 细分领域技术突破者
申菱环境
技术优势:华为数据中心温控核心供应商,首创“冷源侧+末端液冷机柜”全栈方案,PUE降至1.15,实现全生命周期零碳排放。
市场地位:服务腾讯、阿里、中国移动等客户,累计交付近万台液冷机组,参与超算中心、海外数据中心等标杆项目。
创新实践:推出支持单机柜100kW的浸没式液冷产品,适配GPU集群等极端场景。
光迅科技
技术优势:国内唯一实现液冷光模块批量出货的厂商,首创液冷管道与光模块封装技术,适配800G/1.6T光通信需求。
市场地位:为字节跳动、阿里、华为等提供液冷光模块方案,全球市占率15%。
创新实践:解决高密度光模块散热难题,推动数据中心网络能效提升。
4. 新兴势力与垂直领域专家
淼算科技
技术优势:专注单相浸没式液冷技术,提供全生命周期解决方案,推出模块化液冷服务器,支持灵活扩展。
市场地位:服务宁夏移动、太平洋电信等客户,获赛迪顾问“2023中国数据中心产业液冷技术杰出服务商”称号。
创新实践:通过冷源利旧技术,帮助客户将传统风冷机房改造为液冷智算中心,PUE显著降低。
中国长城
技术优势:采用“芯片级精准喷淋液冷技术”,芯片降温幅度低20℃-30℃,单机架功耗提升至56KW以上。
市场地位:在中大型数据中心广泛应用,助力教育、移动通信等行业节能降耗。
创新实践:某云计算大数据中心采用其技术后,机房总能耗降低近50%。
绿色算力融创行动暨数据中心液冷技术领域有哪些招聘岗位或就业机会
一、核心技术岗位
液冷系统工程师
职责:负责数据中心、充电桩、储能系统等液冷方案设计、热仿真分析、零部件选型及项目管控。
技能要求:需掌握传热学、流体力学等专业理论,熟练使用Flotherm、IcePak等热仿真软件及SolidWorks等三维设计工具,熟悉数据中心设计规范(如TIA-942、GB50174)。
薪资范围:15-60K·15薪(视经验与地区而定),例如深圳某通信公司为高级液冷系统工程师提供30-60K·15薪。
暖通工程师
职责:主导数据中心基础设施(如CDU、管网、冷塔)的系统集成,支持实验室与产线设计,并负责设备选型、验收及客户培训。
技能要求:需熟悉空调产品制造工艺、控制逻辑及自然冷却原理,具备独立制冷系统设计能力。
典型企业:曙光数创、汇合数能等。
电气工程师
职责:负责数据中心电源/电气专业设计,包括方案构建、设备选型、施工图绘制及消防系统协调。
技能要求:需精通Office、CAD等工具,熟悉数据中心新技术(如高压直流、储能技术),持有注册电气工程师证书者优先。
就业场景:集成类数据中心建设项目。
二、研发与测试岗位
热设计工程师
职责:通过仿真与实验优化数据中心散热方案,解决高功率密度场景下的热管理难题。
技能要求:需具备扎实的热力学基础,熟悉液冷板、浸没式箱体流场设计,能使用Fluent等软件进行流固耦合分析。
行业需求:通信设备、电子半导体等领域对散热效率要求极高的企业。
液冷系统测试工程师
职责:制定测试方案,搭建样机并完成性能验证,分析系统设计问题并提出改进方案。
技能要求:需熟悉液冷产品测试标准,具备故障诊断与数据分析能力。
薪资水平:15-20K·13薪(如深圳某科技公司岗位)。
三、产品与项目管理岗位
空调产品经理
职责:开展市场调研、客户交流、销售支持及产品全生命周期管理,推动液冷空调产品研发与立项。
技能要求:需具备3年以上数据中心空调产品经验,熟悉行业竞品与上下游伙伴,能输出技术白皮书与销售资料。
典型企业:曙光数创等液冷技术领先企业。
项目经理
职责:统筹液冷项目进度、质量与成本,协调设计、施工、供应商等多方资源,确保项目按期交付。
核心能力:需具备PMP认证或类似项目管理经验,熟悉数据中心建设全流程。
四、行业应用岗位
数据中心运维工程师
职责:监控液冷系统运行状态,记录加注、加药等数据,处理突发故障并优化运维流程。
技能要求:需熟悉数据中心动环系统,具备基础故障排查能力。
就业场景:大型数据中心运营商(如中国移动、阿里云)。
销售与解决方案工程师
职责:对接客户需求,提供定制化液冷解决方案,完成技术交流与投标支持。
技能要求:需兼具技术背景与商务能力,熟悉数据中心行业痛点与竞品优势。
典型企业:国联绿色科技、易事特等新能源与数据中心综合服务商。
五、新兴领域岗位
绿色算力架构师
职责:设计低PUE数据中心架构,结合液冷技术与可再生能源(如光伏、储能),实现算力与能效的平衡。
行业趋势:随着“东数西算”工程推进,此类岗位需求在甘肃、宁夏等西部枢纽节点快速增长。
AI算力液冷工程师
职责:针对AI服务器高功耗特点,优化液冷散热方案,支持大模型训练与推理场景的稳定运行。
技术要求:需熟悉GPU集群散热设计,了解AI算力发展趋势。
典型企业:超聚变、浪潮信息等AI服务器供应商。




京公网安备 11011202002866号