- 易迪拓培训,专注于微波、射频、天线设计工程师的培养
未来互联网技术路线日渐清晰
摘要:未来互联网的技术路线和特点日益明确,可以概括为:继续秉承人人参与,对现有的互联网架构做革命性的变革,采用有条件的端到端透明的设计理念,联网面向的对象从主机发展到数据,将缓冲/存储技术和通信技术有机融合起来,采用重叠网并存而不是替代的思路逐步发展演进。
1 引言
1981年元旦,互联网正式启用了TCP/IP协议。其中IP协议的版本号是4,即IPv4。经过30年的发展,互联网已经从当初的只是连接200~300台机器,发展到耗尽了全部43亿个IPv4地址,仅WEB网站就超过了2亿台;用户也从美国数所大学和研究机构的研究人员和学生,到了超过20亿网民;应用类型只有Telnet,FTP和E-mail三种,到可搜索引擎检索到的WEB网页数就超过1000亿,而且还有超过99.8%的网页是还没有被检索到。
经过30年的发展,使用互联网的目的已经从以教育科研为核心目的的"公益"性质,转向了以盈利为核心目的的"商业"性质,用户群体从"自律"的科研人员转向普通大众,应用环境从数据为主走向音视频,接入方式从固定走向移动,终端从计算机转向智能手机和平板电脑,交流对象从人际通信转向物物通信,互联网从资源、网络、应用到内容,从管理、安全、隐私到政策等,都面临着诸多关键问题需要研究和解决。简单说,长期以来对互联网修修补补不断而成功前进的道路,越走越窄了。需要互联网变革的,已经从点到面,需要互联网的体系架构发生重大变化。
自2005年开始,业界普遍意识到1990年代设计的、以IPv6为代表的下一代互联网(NGI)存在重大缺陷,我们需要设计能够超越IPv6的新一代互联网,于是提出了"未来互联网"的概念。经过5-6年的发展,经过大量的研究和实验,对未来互联网的研究目前已经超越了纷繁复杂的应用场景以及相互矛盾的需求提出阶段,进入到技术路线的一些关键点日益清楚的阶段,但形成整体技术路线仍然尚需时日。
2 发展IPv6的经验教训
上世纪90年代初,互联网工程任务组(IETF)提出做下一代IP(IPng)的直接原因,是因为IPv4地址即将耗尽(尤其是B类地址)和路由表的快速膨胀,将直接导致互联网无法持续发展。为此,1993年在RFC1550里进行了征求新的IP协议的呼吁,以替代当时已经使用了10年的IPv4协议,并公布了新协议需实现的主要目标。IETF收到了多个IPng提案,最后取长补短,于1998年融合成了今天我们看到的IPv6协议。但很明显,最后正式批准通过的IPv6技术(RFC2460)部分满足了RFC1550提出的需求,因此直至今日虽然基本的IPv6地址长度、包头、路由和安全等机制已经确定和稳定,但一些所谓的"高级"特点仍然还在不断发展和完善中。
如果从第一个IPv6的国际标准RFC1883算起,IPv6已经经过了15年的发展和部署,但发展的很不理想。目前IPv6流量仅占全球互联网流量的0.25%左右,路由条目7000余条(IPv4大约32万条),全球仅有1200多个网站通过了IPv6认证(而IPv4的网站数量超过了2亿个)。这里从外部看IPv6技术,从经济、历史和哲学方法学三个维度,总结其经验教训。
2.1 从历史看
从历史的角度看,IPv6所针对的需求是在大约20年前提出的,并且按当时对IPv4互联网的认识和技术水平设计的。而当时的互联网还没有商用,安全问题也不突出,移动互联网、三网融合、物联网和云计算的概念还没出现,因此IPv6沿用了现在看来存在诸多问题、当时看来非常完美的IPv4互联网体系架构("端到端透明性")和关键技术路线,主要针对的是地址短缺和路由扩展性等问题。
端到端透明性是互联网最初设计中的核心思想,即将互联网系统中与通信相关的部分(IP网络)与高层应用(端点)分离,最大限度地简化网络的设计,将尽可能多的复杂性和控制放在用户终端上。这为后来互联网从实验室走向社会,商用化的蓬勃发展起到了决定性的作用。但这一思想有两个基本假设:第一,互联网最初是由具有共同爱好的技术专家设计开发的,他们之间相互信任;第二,互联网是由科研团体或政府研究机构管理下的非商用网络。这两个基本假设渗透到了互联网初期设计的方方面面。
但随着互联网应用的不断发展,尤其是应用目的从教育科研的"公益"转向盈利为目的的"商业",用户群体从"自律"的科研人员转向普通大众,IPv6所继承的IPv4时代的下一代互联网的体系架构,已经面临了很大挑战。
2.2 从方法学看
哲学方法学告诉我们,解决问题可以自上而下,也可以自下而上;可以是革命性的也可以是改良性的。IPv4的互联网坚持开放性,是自下而上取得成功的,因此IPv6也坚持了这一点。但与此同时,自下而上的技术发展思路需要有两个基本条件:
(1)需要在统一的核心理念的指引下进行,没有"核心"很容易出现混乱甚至矛盾,利益冲突不断将很容易致新技术夭折。
(2)新技术必须具有强大的"破坏性创新"力量,能够创造出新的市场空间,并且逐步替代已有的技术。但问题是,IPv6坚持了IPv4时代"端到端透明"的互联网核心设计理念,在国际化、商业竞争和越来越多的用途下,已经千疮百孔了,但可惜IPv6没有将这一思想"与时俱进",而是顽固坚持。其次,发展IPv4时数据通信的市场还非常小,并且IPv4与其面临的竞争性技术X.25差异非常大,IPv4的竞争优势突出体现在无连接带来的超低成本,以及与底层技术和应用无关带来的底层技术和应用的多样性!而IPv6发展时首先面临的是来自传统IPv4技术,尤其是既得利益者的挑战!
2.3 从经济看
任何技术要在市场上取得成功,都必须符合经济学的一般规律。如果设计新技术时没有创造出足够的、内在的"经济驱动力",那么它的推广应用就会变得异常困难甚至失败。从经济的角度看IPv6,目前能够看到的几乎都是一些经济学者,从内部(IPv6)向外(经济)看,阐述IPv6可能带来的外在经济效益。这些经济学者由于普遍缺乏足够的IPv6技术背景,也就没有办法从经济学的一些基本规律来看IPv6技术是否符合经济学的一般性规律。而设计IPv6时互联网还没有商用,设计它的科学家和工程师,主要是从大学、科研机构的实验室来的,缺乏足够的经济学常识,使得IPv6沿用了诸多IPv4时代"计划经济"的设计、推广和应用特点,使得其在完全竞争的互联网市场中,经济驱动力不足。比如,IPv6过渡方案,几乎没有考虑到经济学上的"外部性"问题。
3 未来互联网的技术路线
3.1 数据为中心的联网
现在的TCP/IP技术是以主机为中心的,是把位于不同通信介质之上全球范围内的主机连接起来,实现彼此之间的信息传递。随着互联网日益成功,互联网上积累了大量的数据需要存储、处理和传递,因此联网的重点,也需要开始从如何把主机高效的连接起来,发展到了用户如何高效的获取数据。比如,内容如何发现,叫什么名字和如何展现给用户等,这些都是IP无法实现的,都需要借助高层技术(如URI,HTTP和XML)以及之上的应用(搜索引擎,P2P等)来实现。互联网的这种内容传递与内容处理分层(分离)的模型,导致内容存储的位置与内容本身、内容的组织(发现)方式和内容传递方式,没有直接联系,内容重复和传递效率低下甚至找不到内容的问题经常出现。
随着互联网内容重要性的日益突出,以内容为中心的联网(即如何将内容传递与内容的组织和存储有效结合起来),开始成为未来互联网研究的重要分支。面向内容的联网让用户将注意力集中在需要的内容而不是位置上,因此直接对所请求的数据和内容进行命名和编址,不关心所请求的内容具体在哪个主机上,也就不必根据主机的位置进行寻址和路由,从而可以提高内容组织、存储和传递的效率。
云计算、数据中心、WEB语义网络、内容分发网络(Content Delivery Network)、名字数据网(NDN,Named Data Network)、DONA(Data-Oriented Network Architecture)项目等应用研究的兴起,都是这一未来互联网联网思路的最好佐证。
3.2 重叠网模型
如何向下一代互联网(包括下一代IP技术)演进,出现了两种技术路线:"改良型"和"革命型"。改良型演进的技术路线主张在现有互联网网络体系下进行修补,对网络设备或拓扑进行改造,使其适应新的需求。革命型演进的技术路线主张抛弃现有互联网网络体系,建立全新的网络架构,从根本上解决原有体系结构存在的问题。未来互联网既不会是"改良式"的,因为对现有互联网技术直接进行零敲碎打式的修补无法真正解决问题;也不会是"革命式"的,因为对互联网进行彻底革新还需要一个很长的过程。面对迫切需要解决的各种问题,应当寻求一个介于零星修补和彻底革新之间的折衷方案,即做系统性的、大范围的、整体性的修补,也就是"重叠网(Overlay)"模型。
该方法设计了路由器网络,覆盖在各种需要互联的异构网络之上,因此其本身是一种重叠网(Overlay Network)。在现有互联网体系架构的基础上,可以仍然遵循重叠网的思想,在互联网承载层之上、应用层之下增加一个垫层,系统性地在这个垫层中实现承载层中个性化和应用层中共性化的功能,在尊重互联网现实存量的基础上让互联网更加健康地持续发展。目前的NDN,CDN等,都是采用的这一思想路线。重叠网模型主张的是与现有的主流技术兼容和共存,IPv6的一个重要经验教训是试图去替代IPv4,而不是试图和IPv4兼容和共存!
3.3 通信与存储融合
ISO/OSI是通信网络的经典模型,有两个重要特点。一是严格分层的,二是存储位于网络之外。可以认为,TCP/IP,X.25和ATM等都是七层模型的一种经典实现。而防火墙、深度包检测(DPI)、负载均衡、重镜像等技术,就是一类很难归类到ISO/OSI模型的技术,因此ISO/OSI模型只能停留在教科书上。
随着对等网络(P2P),内容分发网络(CDN),存储网络、云计算和数据中心等的发展,存储技术(包括缓冲)不再与通信分离,而是被引入到了网络的中间、边缘或终端上,成为了信息通信过程中的重要组成部分。未来互联网中,通信和存储融合成为一种必然,但如何分工、在哪里融合,融合用于解决哪些问题等重大议题,还处于非常初级的研究和应用实验阶段。未来互联网呼唤引入了存储能力的、统一的信息通信网路新模型。
3.4 以终端为中心
现在的互联网开始设计于42年前(1969年的阿帕网),成型于30年前(TCP/IP的应用)。那个年代居于霸主地位的是各式计算机,计算机可以"店大欺主",因此网络的设计必须尊重现实,是一个"以计算机为核心"设计网络的时代,把计算机终端连接起来是互联网的核心任务。而进入2008年前后,TCP/IP技术已经日益成熟,网络技术不仅稳定而且产业和用户规模也已经非常庞大,网络开始"店大欺主",网络技术以不变应万变,终端需要发生变化适配网络和用户的要求。用户侧从PC变化为上网本、智能手机、平板电脑、TV甚至"早产"的物联网,服务侧从服务器发展变化为云计算。未来互联网的设计,终端的剧烈变化成为必须考虑的一个关键因素。此外,目前的互联网终端应用主要是浏览器方式的(B/S模型),未来因为终端的多样性、安全可控、版权保护、改善体验等目的,C/S模型的未来互联网应用有可能会卷土重来。
4 结束语
对于未来互联网的研究,虽然已经取得了一些局部性的重大突破,但还基本停留在体系架构和关键技术等"微观"层面,没有从更基础的能耗、新材料和摩尔定律的影响开始。
如果把互联网本身看成一个庞大的生态系统,它消耗的是各种能源,排出的是CO2和其它电子垃圾。以上讨论的未来互联网技术路线,是从技术和应用本身的发展变化看的,没有考虑外界环境可能的重大变化,会对未来互联网带来何种影响。维持互联网这样一个复杂生态系统的正常运转,主要需要电力资源和计算资源两种外部的"资源"。
当前廉价的电力资源和取之不竭的计算资源,是支撑互联网向"未来"发展演进,其实也是不断"复杂化"的重要前提。有数据显示,2010年美国互联网数据中心和服务器的耗电量已经占总发电量的2.9%,而摩尔定律也快失效了,这都会对未来互联网技术发展的路线方向,产生重大影响。
简单的就是好的,"革命性"的未来互联网技术一定是简单的。
作者:何宝宏 来源:电信网技术