- 易迪拓培训,专注于微波、射频、天线设计工程师的培养
移动多媒体通信关键技术研究
随着竞争的加剧以及话音市场的日益饱和,移动运营商为了增加收入必须寻求新的出路,那就是开展移动多媒体业务。在过去的一年里,移动音乐、移动电视等业务引起了业界极大的关注,移动多媒体通信成为未来通信的发展趋势。本文要探讨的就是移动多媒体通信的关键技术。主要介绍了和移动多媒体通信密切相关的几种技术:网络技术、视频编码技术、流媒体技术等。在移动多媒体通信中,终端技术、业务平台技术也是非常重要的,由于篇幅所限,本文不做讨论。
一、使移动多媒体通信更加有效的技术
移动多媒体通信具备以下特点:
①数据量大。多媒体通信的数据量远远大于话音通信,例如,移动可视电话一般采用QCIF分辨率的图像,有176×144=25344像素。如果每个像素由24位表示,一帧图像的数据量就达594kbit。实时视频图像传输要求的帧频为25帧/s。则数据传输速率将达到14.5Mbit/s。
②实时性要求高。多媒体通信往往对实时性的要求比较高,比如视频电话,要求延迟小、实时性好。
③无线信道缺乏QoS保证。无线信道不稳定的特点容易使通信不可靠,传输速率表现出时变的特点,而且容易带来连续、突发性的传输错误。
④多媒体业务对终端要求较高,比如下载类的视频业务,对终端存储容量也有着较高的要求,音乐、视频类的业务需要手机能支持相应功能。
针对移动多媒体通信的上述特点,人们想出了一些解决办法。相对于移动多媒体业务数据量大的特点,有两个解决办法:一是采用更加先进的网络技术,从而提高网络的通信速率;另一个办法则是采用较好的编码技术,这样也可以使待传输的数据量变小。好的编码技术还可以在一定程度上对抗无线信道不可靠的特点,这对于提高移动多媒体业务的质量也大有好处。另外,针对一些需要下载的多媒体业务对终端存储容量要求较高的问题,引入了流媒体技术,这样就不需要把所有的内容都下载下来,可以边下载边播放,一方面可以缓解终端存储空间的不足,另一方面流媒体启动播放的延时非常短,使用户能够即时收看收听视频业务,提高了实时性。当然,终端技术的发展,如彩屏、摄像头、音乐功能等,对移动多媒体业务的发展也会起到保障和推动作用。
二、网络技术发展
今天3G移动通信系统在很多国家已经进入商用,然而,随着移动多媒体业务的发展,3G已经不能满足人们的需要了,其局限性主要体现在以下几个方面。
①难以达到较高的通信速率。3G最高可支持2Mbit/s的速率。然而在高速移动环境下,却远远达不到这一速率,因此不能满足用户对高速多媒体业务的要求。
②难以提供动态范围多速率业务。由于3G空中接口标准对核心网有所限制,因此3G将难以提供具有多种QoS及性能的各种速率的业务。
③难以实现不同频段的不同业务环境间的无缝漫游。由于采用不同频段的不同业务环境需要移动终端配置有相应不同的软、硬件模块,而3G移动终端目前尚不能够实现多业务环境的不同配置。
以上3G系统的一些局限性,人们希望能够通过第四代移动通信来解决。4G系统具有如下特点:
①速率更快。4G通信系统的速率可以达到10~20Mbit/s,最高可达100Mbit/s。
②各系统(IMT-2000、WLAN、BWA、卫星、广播等)之间无缝的业务支持,并提供全球无缝漫游。
③支持多种模式、对称/非对称业务。
④全IP网络,支持QoS。
1999年成立的ITU-R的WP8F工作组的主要任务就是负责3G未来发展和超3G的研究。超3G是ITU定义的SystemsBeyondIMT-2000的简称,顾名思义,是超越3G系统,目前所称的第四代移动通信实际上就是指ITU提出的超3G系统。ITU的超3G工作计划是全面启动超IMT2000业务、市场、技术和频谱需求的研究。
目前,欧洲、日本、韩国、美国以及我国也都启动了超3G/4G的研究,NTTDoCoMo、AT&T、Nortel、SKT等公司也积极地进行了相关的研发和试验,并已取得了初步的成绩。
三、视频编码技术
在移动多媒体通信中,图像、文本、音频数据都需要编码,但是由于其中视频通信的数据量最大,最有代表性,因而,本章主要介绍视频编码技术。
目前常用的视频编码格式有MPEG-4、H.263、NancyCodec。
1.MPEG-4
MPEG是动态图像专家组(MovingPicturesExpertsGroup)的英文缩写,该专家组成立于1988年,致力于运动图像及其伴音的压缩编码标准化工作,原先他们打算开发MPEG-1、MPEG-2、MPEG-3和MPEG-4四个版本,以适用于不同带宽和数字影像质量的要求。
目前,MPEG-1技术被广泛应用于VCD,而MPEG-2标准则用于广播电视和DVD等。MPEG-3最初是为HDTV开发的编码和压缩标准,但由于MPEG-2的出色性能表现,MPEG-3最终没有出台。而MPEG-4从1999年开始正式成为国际标准,其标准名称为甚低速率视听编码(Very-lowbitrateaudio-visualcoding)。
MPEG-4引入了基于对象的概念——视听对象(AVO),使更多交互操作成为可能。AVO可以是一个人物,也可以是这个人物的语音或者一段背景音乐。它具有高效编码、高效存储与传播及可交互操作的特性。MPEG-4对AVO的操作主要有:采用AVO来表示听觉、视觉或者视听组合内容;组合已有的AVO来生成复合的AVO,并生成视听场景;对AVO的数据灵活地多路合成与同步,这样便于选择合适的网络来传输对象数据;允许接收端的用户在视听场合中对AVO进行交互操作。
MPEG-4标准由下面几个部分组成:
①传输多媒体集成框架(DMIF)
DMIF是MPEG-4制定的会话协议,用来管理多媒体数据流。该协议与文件传输协议相似,不同的是,文件传输协议返回的是数据,而DMIF返回的是指向到何处获取数据流的指针。
②场景描述
MPEG-4提供了一系列工具,用于组成场景中的一组对象。一些必要的合成信息就组成了场景描述。
③音频编码
MPEG-4不仅支持自然声音,而且支持合成声音。MPEG-4的音频部分将音频的合成编码和自然声音的编码相结合,并支持音频的对象特征。MPEG-4的译码器还支持MIDI合成音乐和文本到语音(TTS)的转换。
④视频编码
与音频编码类似,MPEG-4也支持对自然和合成的视觉对象的编码。合成的视觉对象包括2D、3D动画和人面部表情动画等。
2.H.263
H.263是ITU-T推出的码率低于64kbit/s的低码率视频压缩标准,是一种集图像帧间预测(降低图像的时间冗余度)和离散余弦变换(DCT)编码(降低图像的空间冗余度)于一体的混合编码结构,具有较高的压缩比,适合于无线视频传输。采用的基本技术包括:DCT变换、运动补偿、量化、熵编码等,其核心是离散余弦变换加运动补偿(DCT+MC)。
典型的H.263视频流由一个I帧(intra-frame)和几个P帧(inter-frame)构成。I帧是独立编码的,没有采用任何参考帧,可以独立解码;P帧是由当前帧和前一个P帧的差值编码构成的。若采用QCIF格式(176×144像素),一幅图像被分成99(11×9)个宏块(MB),每个宏块由4个8×8的亮度块和2个8×8的色度块构成,11个连续的MB就构成了一个GOB(GroupofBlocks)
3.NancyCodec
NancyCodec是日本OFFICENOA公司开发的一项技术,与业界公认标准MPEG-4相比,在技术上有很大的不同。在NancyCodec中,它并没有采用目前流行的离散余弦变换及小波变换,而是使用了OFFICE NOA独自开发的结构化比例多边形(SMSP)技术,将图像按不同形状与尺寸进行模块化分割,然后再压缩。它是一种全新的算法,不需要进行动态预测,完全摆脱了通过使用变换频率的手段来实现高频成分时所产生的损耗,也摆脱了动态预测的束缚。Nancy Codec只需运用简单的算术算法如整数的加减,字节变换和比较等运算就可以完成画面处理,故它能在采用8位CPU的平台上运行,这样的要求能使移动电话可以采用小尺寸的芯片进行视频的压缩和解压缩。
4.几种视频压缩技术的比较
目前MPEG-4和H.263都是成熟标准,是3GPP支持的标准,有手机支持,缺点是压缩算法比较复杂。而Nancy压缩算法很简单,只有MPEG-41/10以下的负荷,缺点是其不是3GPP标准支持的文件格式。
四、流媒体技术
所谓流媒体技术是把连续的影像和声音信息经过压缩之后放到网络服务器上,移动终端用户可以一边下载一边播放,这样用户的等待时间不需要很长。流媒体技术是采用流式传输的方式在网络上传输音频、视频等格式的多媒体文件。流媒体是和下载播放相对的,即在播放前并不下载整个文件,只将开始部分内容存入内存,这样就不需要移动终端有太强的存储功能。
1.流媒体编码格式
目前主流的流媒体格式有RealNetworks公司的RealSystem,Microsoft公司的WindowsMeiaTechnology和Apple公司的QuickTime,它们是网上流媒体传输系统的3大主流。
①RealSystem
RealSystem由媒体内容制作工具(RealProducer)、服务器(RealServer)、客户端软件(ClientSoftware)组成。相应的流媒体文件包括Real Audio、RealVideo、RealPresentation和RealFlash几类,用于传输不同的文件。Real System采用SureStream技术,自动并持续地调整数据流的流量以适应实际应用中的各种不同网络带宽需求,轻松地在网上实现视音频和三维动画。
②WindowsMedia
WindowsMedia技术是微软公司推出的,其前身是微软公司的Netshow产品,目的是在网上实现包括音频、视频在内的多媒体流信息的传输。WindowsMedia技术由MediaTools、Media Sever和Media Player工具构成。
③QuickTime
Apple公司于1991年开始发布QuickTime,它几乎支持所有主流的个人计算平台和各种格式的静态图像文件、视频和动画格式,具有内置Web浏览器插件(Plug-in)技术、支持IETF流标准以及RPT、RTSP、SDP、FTP和HTTP等网络协议。
QuickTime包括:服务器(QuickTimeStreaming server)、带编辑功能的播放器(QuickTime Player)、制作工具(Quick Time4 Pro)、图像浏览器(Picture Viewer)以及使Internet浏览器能够播放Quick Time,影片的Quick Time插件。
2.流式传输协议
①实时传输协议
实时传输协议(RTP)是用于Internet上针对多媒体数据流的一种传输协议。RTP被定义为在一对一或一对多的传输情况下工作,其目的是提供时间信息和实现流同步。RTP通常使用UDP来传送数据,但RTP也可以在TCP或ATM等其他协议之上工作。当应用程序开始一个RTP会话时将使用两个端口:一个给RTP,一个给RTCP。RTP本身并不能为按顺序传送数据包提供可靠的传送机制,也不提供流量控制或拥塞控制,它依靠RTCP提供这些服务。通常RTP算法并不作为一个独立的网络层来实现,而是作为应用程序代码的一部分。
②实时传输控制协议
实时传输控制协议(RTCP)和RTP一起提供流量控制和拥塞控制服务。在RTP会话期间,各参与者周期性地传送RTCP包。RTCP包中含有已发送的数据包的数量、丢失的数据包的数量等统计资料。因此,服务器可以利用这些信息动态地改变传输速率,甚至改变有效载荷类型。RTP和RTCP配合使用,他们能以有效的反馈和最小的开销使传输效率最佳化,因而特别适合传送网上的实时数据。
③实时流协议
实时流协议(RTSP)是由RealNetworks和Netscape共同提出的。该协议定义了一对多应用程序如何有效地通过IP网络传送多媒体数据。RTSP在体系结构上位于RTP和RTCP之上,它使用TCP或RTP完成数据传输。
④资源预留协议
资源预留协议(RSVP)是正在开发的Internet上的资源预订协议,使用RSVP能在一定程度上为流媒体的传输提供QoS,但该协议不传输数据。
上一篇:
建VPN虚拟专用网络
下一篇:高性能DIY服务器实战