如何理解数据采集卡的准确度(1)
来源:学生作业帮助网 编辑:作业帮 时间:2024/11/24 10:49:09
如何理解数据采集卡的准确度(1)
如何理解数据采集卡的准确度(1)
如何理解数据采集卡的准确度(1)
还是0.003V?这个0.003V是计算出来的还是实测出来的?如果计算又是怎么计算的呢?如果不能用NI 9222测量0-100mV 信号,那么有什么其他方法解决吗?这是一个很实际的问题,也是我们在测试、测量中常遇到的问题.它涉及到我们如何确定设计方案和如何选择数据采集卡.
针对这个问题以NI 9222为例,说明一下我的认识.
正像该网友提到的那样,在NI 9222的中文的《详细规格》中的确给出了该板卡的这几项数据指标:
最大模拟输入电压10V
最大电压范围 -10 V,10V
最大电压范围的精度 0.003V
从这个技术指标中,我们可以得到它的最大测量范围下的准确度值,这里我们使用准确度,而不是精度是因为精度这个词国家已经建议不使用.
但是在0.1V下它的准确度是多少?仅仅通过这几个参数我们是无法直接获得.我们通过该页中查看数据表和规格 (英文版)可以看到更为详细的准确度说明.参见下图.
NI 9222测量准确度的说明Measurement Conditions—--我们可理解为使用状态.它分为没有经过校准时的使用温度范围和经过校准后的使用温度范围.
Percent of Reading (Gain Error)——读数误差(%).我们可以理解为实际测量值的测量误差.
Percentage of Range (Off?set Error)——满读数误差(%).也有称为满度值误差(%).我们可以理解为最大输入信号下(绝对值)的误差.
显然,由于测量信号的大小不同,读数误差将会是随之变化.而最大输入信号的误差应该是个常数(定值,因为最大输入电压是个定值).
现在我们来看看这种板卡的实际测量误差(条件是:板卡经过校准后,使用温度在18度——28度之间的典型值).参见上表中的第二栏.
显然,在输入信号最大时测量误差为:0.02%+0.01%=0.03%;也就是万分之三(实际上每项前面都有一个正负号,这里没法打正负号).也就是开始所说的0.003V.在上述使用条件不变的情况下,输入信号为0.1V(100mV)时,误差的前一项,读数误差为0.1V的万分之二(基本上可以忽略不计,因为此时后一项误差占主要成分);而后一项误差不变仍然为10V的万分之一,也就是1mV.所以在测量0.1V电压时,误差为1mV,相当于测量准确度为1%.显然测量1V输入电压时,测量准确度为:0.12%,即千分之一点二.这也就是为什么总是强调测量信号尽可能的接近最大输入值的原因.不知能否理解这段说明.可以留言探讨!