裸金属服务器助力数字化转型下的数据中心改造升级
在“新基建”背景下,如何处理数据中心“一哄而上”的问题尤为重要,实际上早在几年前,担心数据中心过度发展的舆论已时有发生。各大核心城市严控数据中心建设,其实都有其现实根源。数据中心是一种高能耗、低收益的产业,特别是互联网公司的数据中心,消耗着本地能源,却服务着全世界的业务,最后的收益也难以转化为当地税收。
据统计,从2011年-2016年,数据中心耗电量快速增加,每年以超过10%的速度快速增长。2017年,国内数据中心总耗电量达到1300千瓦时, 2018年,全国数据中心总耗电量1500亿千瓦时,达到了社会总用电量的2%。预计到2025年,占比将增加一倍,达到4.05%。
但是,单纯以能耗来评定数据中心并不客观,数据中心是一个综合性产业,在能源消耗的背后是为整个数字经济的基础,支撑着互联网、通信、智能交通、智慧城市等等一系列的重要产业。美国《科学》杂志刊出了一篇名为《全球数据中心能源使用在需求快速增长下仍然放缓》的论文,计算出了2010年至2018年间,全球数据中心需求增长了550%,而数据中心能源使用仅增长了6%。
与其担心“一哄而上”的数据中心能耗问题,不如思考对现有数据中心的改造升级。工信部等三机关在2019年初发布的《关于加强绿色数据中心建设的指导意见》中明确提出,到2022年,数据中心平均能耗基本达到国际先进水平,高能耗老旧设备基本淘汰,水资源利用效率和清洁能源应用比例大幅提升,废旧电器电子产品得到有效回收利用。
既有数据中心的高能耗问题如何解决?
降低数据中心能耗,无论是IT设备效率的提升,还是冷却系统能耗的降低。最后都体现在PUE上。而新建数据中心往往采用最成熟的节能技术,在PUE的控制和冷却水消耗等方面进行改善。而对于传统既有数据中心而言,土建的特性决定了其改造的困难度。而这些老旧数据中心也是现在存量数据中心的主要组成部分,对其加以改造以降低能耗,任重道远。
实际上,在数据中心能耗中,制冷系统的能耗占据了相当大的比例,采用何种服务器制冷方式在一定程度上关系着能耗的高低。而相关数据显示,应用液冷技术,数据中心应用在冷却系统的能耗可大幅降低,PUE值甚至能够控制在1.1以下。
如今,液冷生态已初具雏形,而以冷板式液冷见长的裸金属服务器一度被看好,或将成为传统数据中心降低能耗的救命稻草。冷板式液冷是裸金属服务器的跃迁式技术创新,具有高能效、高密度、高可用和高可靠等特性,突破了传统制冷技术瓶颈,制冷故障率大幅降低,同时为社会节省大量能源。
传统既有数据中心如何走上智能化之路?
数据中心运维工作主要包括配置管理和监控,涉及程序更新、配置修改、数据传输以及各种自定义的命令执行,如果采用人工运维,误操作问题不可避免,而且效率低下。此外对于数据中心的监控方面,数据中心里运行着成千上万台设备、应用程序、组网等,十分复杂,如果单靠人去监控,不仅效率低而且还容易疏漏。
而裸金属服务器自带的云操作系统,面向租户、以应用为核心,实现各云基础资源和应用的动态实时调度扁平化,资源分配和应用调度高度统一融合,资源编排和应用编排不再分层,让资源层和应用层相互融合,高度协同提供各类云计算服务。
通过智能化运维,实现事前预警、事中恢复、事后存档所有流程智能化,甚至无人化。不仅将运维人员从繁琐的工作中解放出来,而且还大大提升了运维工作的效率,是未来数据中心运维发展的重要方向。
传统数据中心如何提升机柜空间利用率?
在数据中心层面,空间容量可按需求分为三类:机房电力容量、机房制冷量容量、机房物理空间容量。对于机房物理空间容量而言,根据各机房的实际面积、可容纳机柜数,实际使用机柜位数,统计出各机房的物理空间使用量,可计算出相应的物理空间利用率。
但如何在同一环境同样的物理面积下,提高数据中心的物理空间利用率呢?高密度服务器便是一种较好的解决方案。
目前,已有裸金属服务器厂商推出超高密度裸金属服务器,比如蜗牛vps的超高密度混合平台,是全球已知范围内独家超高密度平台架构,5U机箱内置60台裸金属服务器。相比传统服务器而言,同一机柜可部署最多高达300台服务器,而传统模式最大仅能部署20-150台服务器。
免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:niceseo99@gmail.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。
评论