- 易迪拓培训,专注于微波、射频、天线设计工程师的培养
迄今对云计算应用层面最深入的讨论
随着数字世界的数据量呈指数式增长,企业正在改变关于数据处理位置以及选择哪些数据进行转移的方案,并开始关注转移和存储数据的总成本问题。
自从IBM公司于1964年推出商用的System/360大型机以来,数据中心的架构鲜有重大性的改变。在很长一段时间内,数据中心一直致力于不断提高速度和吞吐能力,并在1990年代将架构迁移到客户端/服务器模型上。但从上层角度来看,这仍然是一种数据被集中存储和处理以及被全局性访问的环境。
实质性变化的迹象发生在21世纪初。在上个世纪九十年代纷纷上马的大量廉价刀片服务器开始因为功率和制冷问题变得非常昂贵,当企业让IT部门独立负责其数据中心的成本问题时他们开始意识到了这一点,随后,他们不得不纷纷为其IT预算的增加设置上限。
这在CIO中间造成了全局性的恐慌,于是他们期望服务器制造商改进能效,服务器制造商们进一步求助于处理器厂商,在接下来的几年内他们向处理器厂商提出了性能和低功耗方面的各种要求,但是这也显然不能完全解决问题,因为服务器本身利用不足,所以虚拟化成为快速解决问题的一剂妙药。它不仅提高了服务器利用率,同时可以在不使用时关闭服务器集群的整个单元。
尽管如此,随着智能设备和物联网设备的海量数据开始涌入数据中心,很明显需要作出更根本的改变。借由智能手表、Nest恒温器或智能电视,物联网成为消费领域的头条热门话题,但是最大的变化发生在大数据上-即数据如何被收集、使用、处理和存储。不同于消费电子市场,可以很快地推出一款产品试探消费者的口味,当涉及到大数据时,方案能否被采纳成为一个很明确的商业问题。如果能够充分削减成本,同时可以适应被处理和存储的数据量的快速增加,公司肯定乐于为此开出支票的。
"如果你运营了一个数据中心,收到电费账单的那一天肯定是这个月中最糟糕的一天。"ARM CEO Simon Segars说,他所提出的方案远不止于数据中心。"网络需要成为一个智能的柔性的云,这样网络和数据中心将成为一体,而且计算和存储位置发生在距离终端节点尽可能近的地方。增加几百万行的代码便可以节省TB级的数据处理。"
Segars指出,数据中心体系结构的本质上是数据从客户端设备到网络再到数据中心的链路,而且这是"很长一段时间"内的操作方式。他说,一个更好的方法是在整个网络中增加智能处理能力,这样可以实现大部分目标-提高能效、减少延迟并且只使用确实需要的资源。
"这里的区别是数据和信息的不同,"他补充说。"你会产生大量的数据,但要存储的只有信息。"
要让这种方案可行,需要研究信息处理和传递过程的每一个环节,按Segars的话来讲:"这是一个旅程",不会一夜之间就出现在面前。而且,物联网是联通性生态系统的集合,它全面涉及到生态系统的每个部分。像Facebook、谷歌和亚马逊这样的大公司,采用自家独有的体系结构,公开引领着这个市场,其体系结构的着眼点在于降低功耗同时提高吞吐量。当你深入挖掘其软件栈、硬件和网络技术时,可以发现一些不太明显的改变。
"一个很大的挑战是你如何开发具有分布式计算能力的服务,"加州大学伯克利分校教授和IEEE院士Edward Lee说。"我们需要能够把计算部署到接近物理设备的位置。"
这样的结果是,我们将部署更多更节能的架构的设备,它们会减轻至少一部分数据中心的负担。数据中心到底能消耗多少能量其数字相差很大,但其增长速度可能更能说明问题。美国自然资源保护委员会(NRDC)说,美国的数据中心在2013年消耗了910亿度电,预计这一数字到2020年将达到1400亿度,增长54%。NRDC指出,大部分的能量是由中小型数据中心所消耗的,而不是最先进、规模最大的那些。这使得很多市场还有很大的提升空间,并为电子行业带来巨大机会。
重大改变
显然,最大的能量节约来自于数据处理过程中的智能分析,但同时也涉及很多其他的变化,这将让改变更复杂、多维,并在一定程度上无所不包。对于物联网和工业物联网而言,要想不负众望,所有的变化必须都做到位。
"其应用场景将是将近百万个应用以及每个应用超过百万的用户",Cavium生态系统及合作伙伴协作部门总监Larry Wikelius说,"这是计算、IO、虚拟化和加速器的结合,在过去,一个Web服务器处理大数据,你将一堆东西七拼八凑在一起。现在,你需要通过选择对计算、存储、网络通信和安全进行配置,这样便可以基于工作负荷对这些要素进行优化。"
Wikelius说,密集的浮点运算可能对某个操作很关键,但它可能只占整个工作负荷的一小部分。为了平衡工作负荷,越来越多的公司寻求网络功能虚拟化(NFV),它可以以类似于在一个通用服务器上运行多个应用和操作系统的方式定制一个网络。
从芯片厂商级的Cavium到服务器厂商级别的HP,很多公司都采用NFV作为其改进公司数据中心的关键策略。通常,这包括最大程度降低能耗同时最大程度提高吞吐能力和处理性能的多核架构。但是,这只是需要解决的巨大难题的很小一部分。
"可以把这视为手段的精简",ARM服务器系统与生态系统总监Lakshmi Mandyam说,"由于选择有限,只能超额拨备。"
Mandyam说,必须增加每个平方英尺的计算能力以提高数据中心的效率,但与此同时,进入数据中心的海量数据的扩张永远不会止步,所以无论采用多少服务器,提高多少效率,永远不足以处理产生的所有数据。
"智能需要部署在更加接近终端的位置",她说。"我们还需要一种把所有设备连接在一起的创新方式,所以你需要安全IP、网络IP和存储IP,然后在服务器机架的层面上集成并消除多余的组件。"
这似乎成为了整个半导体行业的普遍共识。 "这里有两个问题,"营销Calypto低功耗平台的市场总监Anand Iyer说。 "第一个是延迟。第二个是哪些是需要传输的真实信息以及有多少数据被浪费了。仅进行必须的计算,不要浪费计算能力。这就是你消除能源浪费的方式。"Iyer指出,所有层面的架构都在寻找可以改进的地方,并平衡潜在的改变及其实际的改造成本之间的矛盾。这不是一种简单的决定,有时你要面对各种存储器IP选择,有时要选择使用或者重用哪种微架构,哪些部分需要时钟门控哪些不需要,以及这些选择怎样会在整个系统层面上影响能耗。"开发社区需要了解所有的权衡",他说。"同样重要的是,人们需要更加有效地分享关于这些权衡的认知,现在,我们还是采用比较笨拙的方式实现这一点。"
其它决策
改进上层架构只能解决难题的一小部分,但是,它也必须被有效地管理,而且,IT管理一直是企业的传统课题之一。快速的变化可能会造成惨重的代价,然而要从每个市场前沿大量增加的传感器和数据中获益,这种变化至关重要。比较讽刺的是,代工厂和芯片制造商现在能够相当轻松地应对这种问题,因为他们已经跟每次新工艺节点的升级过程带来的巨大和不断增长的数据较量过多次了。
"在2000年时,我们开始感到来自CPU不断升级的压力,"Mentor Graphics公司的高级工程主管Juan Rey说。 "刚开始只有几十台计算机来处理应用,后来开始采用数百个CPU与GPU来加速应用。然后,到了2008年至2009年,业界都开始放缓升级单个CPU性能的脚步,开始转向多核架构。在16nm以下,我们有望看到几千个内核。"
这种方式可以很好地处理一些应用,但并不适用所有的应用。此外,他指出,即使公司建立了非常好的私有云,他们并不总是能够分配足够的资源来妥善管理它们。再好的体系结构和优化措施也会因公司而异。"在制造商这端,这些公司这几年一直在处理这些问题,所以对他们来说问题显而易见且更容易解决,但是,其他的公司怎么才能得到这类资源呢?"
更多有关云计算的资讯,欢迎访问 云计算专区
编译,未经许可,不得转载!
上一篇:
:IE起伏20年,从玩得转到黑的惨
下一篇:漫游费又惹争议,零成本为何还收费?