首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 15 毫秒
1.
随着数据中心的发展,单机架功率密度快速提升.传统的风冷散热方式已经不能满足数据中心的散热需求,而液冷技术的不断完善,为数据中心散热提供了更多可能.冷板式液冷作为数据中心液冷的重要形式之一,凭借实际应用改造较少、技术成熟度较高等特点,成为业界关注的重点之一.本文主要对冷板式液冷技术发展与应用现状进行了分析,以期更好明晰产...  相似文献   

2.
伴随数据中心的高速发展,快速增长的能耗成为数据中心产业发展中不容忽视的问题。“双碳”背景下,国家政策的引导和未来监管成为数据中心节能降耗的强劲驱动力。如何降低数据中心PUE,提升能效,已经成为行业的重点和难题。浸没式液冷技术采用液体冷却,在冷却效率上较传统冷却方式优势明显。本文围绕浸没式液冷技术展开研究,介绍了浸没式液冷技术提出的背景,相对传统冷却技术的优势,单相和双相浸没式液冷的技术要点,商业化进展以及浸没式液冷技术在未来应用中面临的问题与挑战。  相似文献   

3.
5G应用的高带宽、低延时、高密度部署对算力的需求进一步提升,给现有云计算数据中心带来了巨大挑战。未来云计算数据中心将从超大规模数据中心分化出边缘数据中心。为了解决IT设备等的处理器芯片功耗急剧攀升带来的散热问题,有效提升边缘数据中心的能源利用效率(Power Usage Effectiveness, PUE),将对现有通信机房进行改造并引入浸没式液冷系统。文章通过评估浸没式液冷服务器系统PUE测试及总拥有成本(Total Cost of Ownership,TCO),验证了在单机柜负载超过7kW的边缘数据中心节点中引入液冷技术能够两年内回收改造成本,同时可以提高数据中心的业务承载能力。浸没式液冷系统将成为未来边缘数据中心降本增效的利器。  相似文献   

4.
为解决数据中心高功率服务器CPU的散热问题,液冷技术应运而生,成为业界新一轮热点。论文通过实测液冷服务器能耗数据得出:液冷相比于风冷更具优势,能有效驱散高热密度服务器热量,降低风机功耗,大幅提高CPU性能,降低系统PUE,成为行业内绿色数据中心的重要发展趋势。此外,通过探讨三种新型液冷服务器提供芯片级制冷解决方案,并对不同液冷系统进行性能分析,为后续大规模应用提供可行性指导。  相似文献   

5.
车凯 《通信世界》2023,(14):13-15
<正>液冷在数据中心行业属于热点技术,但并不是新技术。液冷技术在数据中心应用较晚,2018年才被收录到《计算机科学技术名词》(第三版)中,其定义为“使用流动液体将计算机内部元器件产生的热量传递到计算机外,以保证计算机工作在安全温度范围内的一种冷却方法。”数据中心冷却系统分为一次冷却(IT设备冷却)和二次冷却(热量散热过程),通常提到的液冷都用于一次冷却过程,而二次冷却过程多采用传统风冷模式。  相似文献   

6.
针对数据中心如何低碳化发展的问题,提出了模块化数据中心相关低碳化技术,包括液冷技术、供配电绿色节能技术、智能管控技术,并结合新能源储能模块在模块化数据中心的应用,有效保证数据中心建设节能化、绿色化的要求.  相似文献   

7.
随着军用雷达微波功率组件的热流密度不断增加,越来越多的相控阵雷达采用液冷散热方案。冷却液是液冷系统中的重要传热介质,不仅应具备良好的换热和流动性能,在使用年限内对系统不造成腐蚀危害,还应在发生泄漏问题的时候不对电子器件造成短路危害,即应具有不导电或者低导电特性。为解决现有雷达液冷系统中常用的乙二醇冷却液导电危害问题,研制了新型低电导率乙二醇冷却液,对雷达液冷系统中常用的不锈钢、铝合金、铜合金及其不同表面处理状态的金属材料在该低电导率乙二醇冷却液中的腐蚀性进行试验研究和评估,对其泄露导电危害特性进行试验分析和比较,并针对三元乙丙、氟硅橡胶等开展冷却液的相容性试验研究。该研究为新型低电导率乙二醇冷却液在雷达液冷系统中的应用提供参考。  相似文献   

8.
随着数据中心和通信机房中的能耗逐年增高,风冷散热难以满足其对PUE控制目标的要求,因此数据中心和通信机房中的服务器、通信设备有必要采用液冷技术进行散热节能,以降低PUE、控制设备的温度,同时提高设备的性能和可靠性。光模块是数据中心和通信机房网络通信设备的核心配件之一。分析了数据中心和通信机房应用浸没式和喷淋式液冷系统对光模块产生的影响,针对光模块是否需要改进封装方式的问题,对液冷光模块有效的封装方式、密封技术、技术要求以及对应的测试方法等方面开展研究和分析,并提出技术展望。  相似文献   

9.
针对数据中心机房散热制冷需求,从制冷技术原理、气流分配特性、制冷技术优缺点三个方面,对房级、行级、机柜级和服务器级液冷制冷技术进行对比分析。分析结果认为房级制冷系统更加适合中小功率数据中心;行级制冷系统适合新建数据中心;机柜级制冷系统适合消除局部热点故障;服务器级液冷技术具有最高的节能前景,是数据中心制冷的发展趋势。  相似文献   

10.
董进喜  杨明明  赵亮 《电子科技》2013,26(4):106-109
从3个方面对液冷散热器中冷却液的热学性能进行分析对比,包括不同温度下的热物理参数变化、不同流态下的热传导系数和相同功耗下的冷却液温升。以65#冷却液和PAO冷却液为例,对比分析表明在-20~70 ℃区间内65#冷却液在热学性能上较PAO更强,但物理参数的稳定性较PAO差。在同一电子设备系统的液冷散热器中使用这两种不同冷却液介质后,通过实验测量电子设备内各芯片的平衡温度,结果表明,65#冷却液较PAO具有更好的散热效果,芯片温升约可降低10 ℃。  相似文献   

11.
数据中心作为新型基础设施,是国家实施信息化和数字化转型的算力底座。随着国家双碳战略的不断推进,数据中心作为耗能大户能效问题日益突出,如何实现数据中心的绿色节能低碳建设和运行成为信息通信行业研究的最新方向。本文重点介绍了高效直流电源系统等创新应用技术的原理及实践效果,同时展望全预制化电力模块及液冷等前沿技术,共同探索数据中心节能降碳新技术和新思路。  相似文献   

12.
介绍数据中心IT设备的发展趋势,综述房间级空调、行级空调、背板空调以及液冷等冷却技术在数据中心的运用现状和发展趋势,论述目前的重点研究方向即解决高密度服务器的散热和降低冷却系统能耗两方面的研究进展。通过案例分析新风和深层湖水、江水直接冷却的自然冷却技术,并阐明合理利用自然冷源是未来数据中心绿色运营的主要方向。  相似文献   

13.
本文开展了浸没式液冷技术在储能电池方面的仿真研究,并结合基础传热理论,对比分析了氟化液、硅油和矿物质油在电池冷却过程中的不同效果。结论为氟化液冷却效果最好,硅油次之。储能电池1C放电且进出液温差为2°C时,冷却液可以将电池表面平均温升控制在3°C~4°C,且电池组表面温差在5°C以下,体现出优秀的温控能力。  相似文献   

14.
随着近年来国内外数据中心建设和运营的蓬勃发展,数据中心能耗问题也日益突出,如何有效减少能源浪费、增加能源使用效率成为数据中心节能减排工作重点。本文针对数据中心能耗占比较高的空调系统,提出了“液冷为主、风冷为辅”的双通道冷却系统架构,通过建立基于热传导技术的低热阻高效率导热通道,实现大部分热量的高效传导、自然冷却,同时大幅减少制冷系统能耗。  相似文献   

15.
谢丽娜  王超 《通信世界》2023,(14):11-12
<正>随着我国数字经济蓬勃发展,算力赋能场景日新月异。伴随着ChatGPT迅速“破圈”,AI驱动算力呈指数级增长,使得数据资源的计算、存储和应用需求快速扩张,数据中心等算力基础设施的高密度、高算力发展已成必然趋势。与此同时,在“双碳”战略驱动下,数据中心也面临着高能效的发展要求,利用风冷散热的传统方式已无法满足数据中心业务增长与节能降碳的双重需求,先进的液冷技术为数据中心带来了全新的曙光。  相似文献   

16.
功放组件液冷方式主要通过组件冷板上布置的冷却液通道来实现.针对某雷达功放组件冷板的结构设计,详细阐述了工艺方案的选择对冷板材料和冷却液通道热加工方法的考虑,制定了冷板的制造工艺.  相似文献   

17.
针对电子战飞机雷达与电子战设备液冷精细化控制需求,通过对PID算法的研究,文章提出了基于变结构PID控制算法的冷却液流量控制方法,用于飞机液冷系统流量调节阀门控制,经过仿真与系统联试验证,控制响应快,超调量小,稳态精度高。  相似文献   

18.
本文研究了3种典型构型微通道冷板的散热特性,分别为冷板盖板与翅片焊接、冷板盖板与翅片不焊接以及翅片双面插排形式.对比了3种不同构型冷板的散热能力并对3种构型冷板的流阻特性进行了研究,发现翅片排布越密集流阻越大,越不利于整个液冷系统的流量分配.研究了冷却液流量对功率芯片温度的影响,发现冷却液流量较小时,流量增加可大幅降低...  相似文献   

19.
<正>正如生成式人工智能(AIGC)横空出世引爆算力需求,算力需求骤增也给数据中心建设发展带来更多挑战。算力需求有增无减,数据中心该如何接招?液冷技术打开了发展新思路。需求驱动,高效节能成关注焦点当前,我国数字经济正在转向深化应用、规范发展、普惠共享的新阶段。伴随着新型应用日新月异,计算型节点、AI训练、超算等高算力业务需求持续推升芯片性能,服务器功率不断提高,企业纷纷在AI、智算领域提前布局。  相似文献   

20.
介绍了一种应用在相控阵雷达的有源通用诱饵发射机系统。分析了系统的组成和工作原理,重点介绍了采用的模块化设计技术、电磁兼容技术和液冷热设计等。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号