Основные характеристики измерительных приборов и преобразователей
Входной величиной измерительного прибора является его измеряемая величина. Наибольшее и наименьшее значения измеряемой величины, для которых нормированы погрешности, называются пределами измерения. Область значений, заключенная между верхним и нижним пределами измерения, называется диапазоном измерений. От диапазона измерений следует отличать диапазон показаний, который охватывает область значений шкалы, ограниченную конечным и начальным значениями шкалы. Таким образом, диапазон измерений, охватывающий часть шкалы, в пределах которой измерения могут быть проведены с нормируемой погрешностью, более узок, чем диапазон показаний, охватывающий всю шкалу. Выходной величиной измерительного прибора является изменение состояния отсчетного устройства, например положения стрелки стрелочного прибора. Функция (уравнение) преобразования - функциональная зависимость между выходной величиной у и входной величиной х. Как и любая функция, функция преобразования может задаваться аналитически (уравнением), таблично или графически. Обычно желательно, чтобы функция преобразования была линейной. Чувствительность - это отношение изменения выходной величины измерительного прибора или измерительного преобразователя к вызвавшему ее изменению входной величины. Чувствительность определяется выражением S = dy/dx (3.4) и может быть определена при любом способе задания функции преобразования. Для прибора или преобразователя может определяться абсолютная, относительная и приведенная погрешности. Абсолютная погрешность прибора в данной точке диапазона измерения равна D = хп - хи (3.5) где хп - показание прибора; хи - истинное значение измеряемой величины. Однако в связи с тем, что истинное значение неизвестно, на практике вместо него используется действительное значение х. В качестве х принимают показания более точного, образцового прибора. Абсолютная погрешность прибора выражается в тех же единицах, что и измеряемая величина. Относительная погрешность прибора равна отношению абсолютной погрешности к истинному значению измеряемой величины и обычно выражается в процентах: d = (D /х) *100 = [(хп - хи)/ хи] *100. (3.6) Приведенная погрешность прибора g также выражается в процентах и равна отношению абсолютной погрешности к нормирующему значению xN, которое принимается равным верхнему пределу измерений (если нулевая отметка находится на краю или вне шкалы) или диапазону измерения (если нулевая отметка находится внутри диапазона измерений): g = (D/хN) * 100 = [(хп - хи)/хN] * 100. (3.7) Значения абсолютной, относительной и приведенной погрешностей используются для нормирования погрешности приборов. Различают номинальную функцию преобразования измерительного преобразователя уном= f ном(х), которую он должен иметь согласно государственнымстандартам, техническим условиям или другим нормативным документам, и реальную у = f (х), которую он имеет в действительности. Разность значений действительной и номинальной функций преобразования при одном и том же значении входной величины определяет абсолютную погрешность преобразователя по выходу: D y = y – y ном. (3.8) Погрешность создается преобразователем. Однако часто бывает полезно знать значение входного сигнала, соответствующего погрешности преобразователя. Абсолютным значением погрешности преобразователя по входу называется разность D х = х ном - х, (3.9) где х - истинное значение входной величины; х ном - значение входной величины, определяемое по номинальной функции преобразования уном= f ном(х), при значении выходной величины уном , соответствующей истинному значению х. Дополнительная погрешность возникает при отклонении условий испытания и эксплуатации средства измерения от нормальных условий. Нормирование погрешности средств измерения производится по максимально допускаемым значениям основной и дополнительной погрешностей (ГОСТ 8.401-80). Погрешность средств измерения не должна превышать заданных пределов. Средствам измерения присваивается класс точности. Это обобщенная метрологическая характеристика, определяемая пределами допускаемых основной и дополнительных погрешностей, значения которых устанавливаются в стандартах на отдельные виды средств измерения. Класс точности обозначается числом, соответствующим нормированной основной погрешности средства измерения. Класс точности стрелочных и самопишущих приборов, как правило, обозначается одним числом, равным максимально допускаемому значению основной приведенной погрешности, класс точности цифровых приборов, мостов и компенсаторов указывается в виде дроби. Конкретные ряды классов точности устанавливаются в стандартах на отдельные виды средств измерения.
|