超大规模时代,金融数据中心对“液冷”需求迫切!
原标题:超大规模时代 , 金融数据中心对“液冷”需求迫切!
据工信部最新发布数据显示 , 我国在用数据中心的机架总规模已突破226万 , 而在前一年 , 这个数字仅166万 , 一年之间增长近4成 。
【超大规模时代,金融数据中心对“液冷”需求迫切!】与此同时 , 大数据、云计算等新兴技术及应用的发展 , 需要更高的计算能力支撑;专用核心部件的部署 , 使数据中心单机架功率规模便有望突破20KW-30KW 。 而在用数据中心PUE居高 , 给数据中心的绿色发展带来极大挑战 。
文章图片
支撑金融绿色发展 , “液冷”备受多家知名银行青睐
金融行业一直是数据中心应用的先行者 。 近年 , 从数据大集中到分布式融合 , 金融行业的数据中心建设正围绕其业务发展的需要迅速展开 。 数据中心逐渐向高密度、超大规模转变 , 对金融行业数据中心制冷系统也提出巨大挑战 。
给数据中心“降温”、突破节能降耗的瓶颈迫在眉睫 , 绿色发展也成为了金融行业数据中心的首要课题 。 目前 , 多家知名国有银行已采用曙光提供的液冷绿色节能数据中心解决方案和产品;曙光部署的液冷服务器已达数万台 。
经测算 , 曙光交付的液冷绿色节能数据中心 , 年均PUE值达到1.2以下(全球数据中心PUE平均值为1.58) , 推动了传统高耗能数据中心建设模式升级 , 实现了节能、高效、安全、稳定的数据中心运行服务 。
文章图片
“液冷”为何秒杀传统散热技术
传统数据中心应用风冷技术 , 电力成本高 , 散热代价大 , 据统计 , 电费占数据中心运维总成本的60%-70% 。 同时噪声大、机房环境差等问题 , 对机房内工作人员健康也产生不良影响 。
曙光绿色数据中心液冷解决方案 , 实现了自然冷却 , 空调系统能耗降低70%;液冷部分PUE<1.1 。 同时消除热量孤岛 , 避免局部过热 , 提高硬件寿命;降低系统温度约20℃ , 器件稳定性被提高一个数量级 。 此外 , 液冷部分水循环噪音极低 , 风冷部分风扇转速降低 , 噪音减小 , 降低约30dB 。
打造金融行业新一代数据中心标杆
曙光交付的液冷绿色节能数据中心 , 实现了高密度计算节点的部署 , 推动了传统高耗能数据中心建设模式升级 。 实现了金融用户服务的快速构建、快速部署、动态扩展 , 提升了金融系统资源利用率 , 便于应用服务的部署与上线 。 实现了液冷节能化服务 , 提升了数据中心IT信息系统的能源使用效率 , 大大降低PUE值、机房噪音及电力成本 。
同时 , 曙光智能运维管理系统 , 实现数据中心的统一化管理 。 通过大屏显示系统 , 用户可对数据中心内部的所有参数进行整体监控和管理 , 减少运维压力 。 曙光提供的绿色节能、高效稳定的数据中心运行服务 , 打造了金融行业新一代数据中心的标杆!
- 再见了,银行卡!央行发布最新通知,4月1日起,银行卡时代将终结
- 襄阳|新时代文明志愿者:群众身边活雷锋
- 少女时代Tiffany惊喜出演韩国综艺,解锁新技能,惊讶众人
- 温柔甜美风的瑜伽裤,还透着微微的优雅温婉,绽放青春时代的魅力
- 林青霞真是时代的美人,一袭鱼鳞裙秀玲珑身段,哪像60多岁的人
- 5G手机也有“假”?敢于尝鲜却被“骗”?余承东确实有远见
- 《演员》决赛,时代少年团为队长花式撑腰,马嘉祺能否问鼎冠军?
- 钱锋委员:智能制造时代的新工科,需要培养卓越工程科学家
- 明日之后:首个电力时代的营地!玩法大幅提升,网友表示羡慕了
- 油价进入“7元时代”!这时候该不该买新能源汽车?