随着生产、保存和呈现数据的技术和手段变得越来越易用和多元化,源源不断的海量数据就像北京春天的杨絮一样,漫天飞舞的呈现在我们面前。
俗话说的好,再大的硬盘也有装满的时候,再快的手机也有卡机的一天。如果说全球整体的数据量,那就更为惊人了!
预计到2020年全球数据总量将超过40ZB(相当于4万亿GB),是2011年的22倍。
在过去几年,全球的数据量以每年58%的速度增长,未来这个速度会更快。
如果按照现在存储容量每年40%的增长速度计算,到2017年需要存储的数据量甚至会大于存储设备的总容量。
几年前3000台服务器容量的数据中心就可以完成的处理工作,几年后服务器数量至少需要乘以10!
你说多不多?多不多!多不多?!
“这是问题吗?”有人会想,只要有钱,我们就狂刷服务器,还怕处理不了大数据?(是的,处理不了:冷静脸)
服务器CPU的主频、内存的容量和I/O带宽,都会影响到运算速度。另外,更重要的是,根据摩尔定律,目前最新款计算机芯片已经突破7纳米尺度,向更小型化发展越来越难,而新的工作负载还在不断涌现,支撑单位硬件计算能力提升的摩尔定律越来越接近极限,数据中心的空间和电力供应也已经无法跟上服务器数量的疯狂增长。(对,服务器是有了,就是没电)
那么,企业在数据处理方面面临巨大的挑战,什么才是应对之良策呢?
互联网巨头的秘密—— OpenPOWER: 超大型数据中心的能力者
让我们来看看国内外的互联网巨头,Google和腾讯都是如何应对大数据挑战的吧:
在国外,2016年4月, Google表示,正在与RackSpace开发一项基于IBM公司新型POWER9架构的开放服务器规范,并向开放计算项目(OpenCompute Project)提交一项POWER9 服务器待选设计方案,供项目成员使用。
在国内,2016年6月,腾讯也谈到开放式合作的重要性以及对OpenPOWER技术的支持。腾讯服务器平台中心架构师王伟表示:“我们会深入挖掘OpenPOWER的技术潜力,取得更大突破,共同推动新技术的发展。”
中美两国的互联网巨头,为何不约而同地选择了OpenPOWER?
那是因为,新一代应用迫切需要通用处理器计算和特定目的的协处理器计算(加速器,如FPGA)混合异构工作,而OpenPOWER分布式计算就在软件和硬件架构上提供了这种全新的能力:
利用OpenPOWER处理器先进的CAPI技术,FPGA能实现与处理器的高效连接,从而充分利用FPGA可编程硬件强大的硬件加速能力,实现软硬结合的异构计算,将不同类型的应用负载加载在两种甚至多种类型的处理器件上,以获得超过十倍甚至百倍的性能增速,同时能够相应减少服务器的数量,降低功耗和服务器占用空间。
(编辑:ASP站长网)
|