- 易迪拓培训,专注于微波、射频、天线设计工程师的培养
关于RX path loss
以前一直理解是从射频测试口到TC之间的损耗值,但是仔细算下来发现,一般SAW加ASM的损耗都在3dB以上,这样之前的理解就有误了。
请资深工程师回答。
谢谢了!
网站上有的,我copy来,你看看
rx LOSS 校准需要cmu或者8960。
rx LOSS校准目的是让rx level值不超标。而rx level值得是bs的发射功率一定下,手机接收到的
功率。
rx level具体描述如下:
1。bs(cmu200或者8960)cell power设为-60
2。手机接收到该信号,并且在bb端测量。假定测出来为-62。
3。手机利用sacch信道定期向bs报告测量值.该值为(-62-(-110))=48
4. bs受到48以后,知道手机接收到bs信号的强度了。
rx level的作用:
如上述,如果手机测试功率准确。那么rx level就可以作为实际使用供率控制的依据。如果bs
功率为-60dBm,而手机报告只有-80(原因为实际使用无线信道衰减),那么说明手机离基站
远,可以命令bs增加发射功率,以便维持通信。反之则命令手机减少功率以节省手机电池和对
其他手机的干扰。
RX loss和 rx level的校准
如上述,rx level很重要。因此需要尽可能的准确。至少不要因为手机本身带来误差。
那么手机本身误差从何而来?
考虑一个-60dbm的信号input到手机的rf connector.经过trace, asm , rx LNA, mixer, AMP, BPF
到BB。这个中间各模块的增益是大致知道的。但是工程中,各个器件有偏差,因此手机和手机之间
必然存在一点offset。rx loss的校准就是校准这个offset。
校准的过程如下,cmu或8960 input一个固定的信号到rf connector,如-75dbm.经过上述各个
模块的增益以后,同一批次的不同手机在bb测量略有偏差。举例手机1可能报告为-76。手机2各个
器件比较好好一点,报告为-73。
校准软件命令bb测量这个信号,并且报告信号强度。根据手机1报告的强度,直到手机1的path loss大概为1db,手机2德path loss大概为-3db。于是将这个path loss的值写入flash。完成校准。
实际中,手机bb测量收到基站的信号后,再加上path loss既可以描述实际收到的信号值。
Merry Christmas!!
同问 看了好多解释
现在我也不清楚path loss到底是指的哪段的损失了,还是指的是什么?
而且在 .ini 文件头部那儿有类似于paht loss 的补偿,不知那是什么意思
期待资深工程师的出现释疑
期待资深工程师的回答
path loss从2#的解释上看,就是RF CONNECTOR到IQ解调后的损耗。它衡量的是整个手机的性能,而非BB前端的损耗。
至于楼主说的:用META校准后,有一项PATH LOSS值,一般情况下为0正负1的样子。哪位工程师知道这值是这么得到的?
以前一直理解是从射频测试口到TC之间的损耗值,但是仔细算下来发现,一般SAW加ASM的损耗都在3dB以上,这样之前的理解就有误了。
只考虑了TC前端的插损而没有考虑 TC内部rx LNA, mixer, AMP, BPF等模块的增益。
以上是我个人理解,请各位拍砖。
这个预先写入的值是怎么来的,谁解释下啊?
校准文件是PA供应商或MTK datesheet 参考电路中带的。
用meta 调试时是在原来的文件上覆盖上修改。
如果在计算这个值的是后,固定计入了前端如双工器和SAW的损耗,那么就可以理解为什么会出现正的了,因为不同器件的差异,是可能导致内部计算值给实际值有差异的。
不过这个也只是猜测,要是资深工程师能确定那感激不尽了!
其实二楼拷过来的回帖已经说得非常清楚了,PL不是单纯的RF CONNECTOR到TC的插损,而是RF CONNECTOR注入的信号强度和BB量测到的信号强度差,这其中,有ASM,trance,Sawfilter,mixer等等的插损,但也有LNA,PGA等等的增益(这部分增益是指他们的实际增益和标称增益的差,可能为负,也可能为正),正因为这部分增益(准确的说是增益差)的存在,才导致了PL出现负数或者比我们理解中要小得原因.
这是个人理解.
Path loss是在发射器和接收器之间由传播环境引入的损耗的量。功率损耗当 RF 波传输在空气中时发生。这个损耗发生是因为空气提供对信号的过滤作用。特定的电磁频率被完全地阻塞或被空气过滤。
还是不清不楚啊!期待大师到到来!
申明:网友回复良莠不齐,仅供参考。
上一篇:TD-CDMA有几个BAND?
下一篇:信号完整性基础知识