一个网络分析仪测试的问题
录入:edatop.com 阅读:
测量一个腔体在空腔时的反射系数
手动测试(不借助计算机和软件)的结果与软件测试(用软件编程,对网络分析仪发送命令)的结果居然不一样……
比如说相位,手动测试的结果,极坐标原图上相位范围是(176度~-175度)
软件测试的结果,极坐标原图上相位范围是(175度~-193度)
编程内容很简单,就是发送了几个设定频率范围、校准等命令。另外再用命令将测试结果提取到计算机中。
可是提取的结果与手动测试的结果会出现上述差异,请问为什么会这样啊?
手动测试(不借助计算机和软件)的结果与软件测试(用软件编程,对网络分析仪发送命令)的结果居然不一样……
比如说相位,手动测试的结果,极坐标原图上相位范围是(176度~-175度)
软件测试的结果,极坐标原图上相位范围是(175度~-193度)
编程内容很简单,就是发送了几个设定频率范围、校准等命令。另外再用命令将测试结果提取到计算机中。
可是提取的结果与手动测试的结果会出现上述差异,请问为什么会这样啊?
是不是要加一些延时指令以便让信号稳定?
谢谢你的回复!
取数据的时候,程序里加了wait命令
(我们用的是LabVIEW编的)
信号应该比较稳定才被提取了吧?
而且,即使信号不太稳定,应该也不至于使结果差别这么大啊
用平均可能会好一些的,相位似乎是比较敏感的
我们这样尝试过:
用软件取数据的时候,测一次的结果和测16次取平均的结果差不多……
那你人工测16次呢
申明:网友回复良莠不齐,仅供参考。如需专业解答,请学习本站推出的微波射频专业培训课程。
上一篇:HFSS为啥说interploting sweep didn't converge
下一篇:问一个矢网测试的问题