Погрешности средств измерений
Процедура измерения состоит из следующих этапов: принятие моде- ли объекта измерения, выбор метода измерения, выбор СИ, проведение эксперимента для получения результата. Это приводит к тому, что резуль- тат измерения отличается от истинного значения измеряемой величины на некоторую величину, называемую погрешностью измерения. Измерение можно считать законченным, если определена измеряемая величина и ука- зана возможная степень ее отклонения от истинного значения. Причины возникновения погрешностей чрезвычайно многочислен- ны, поэтому классификация погрешностей, как и всякая другая классифи- кация, носит достаточно условный характер. Следует различать погрешность СИ и погрешность результата изме- рения этим же СИ. Погрешности измерений зависят от метрологических характеристик используемых СИ, совершенства выбранного метода изме- рений, внешних условий, а также от свойств объекта измерения и изме- ряемой величины. Погрешности измерений обычно превышают погрешно- сти используемых СИ, однако, используя специальные методы устранения ряда погрешностей и статистическую обработку данных многократных на- блюдений, можно в некоторых случаях получить погрешность измерения меньше погрешности используемых СИ. По характеру проявления погрешности СИ делятся на: • систематическая погрешность – составляющая погрешности СИ, принимаемая постоянной или закономерно изменяющейся. К сис- тематическим погрешностям СИ относят методические, инстру- ментальные, субъективные и другие погрешности, которые при проведении измерений необходимо учитывать и по возможности устранять; • случайная погрешность – составляющая погрешности СИ, изме- няющаяся случайным образом. Она приводит к неоднозначности показаний и обусловлена причинами, которые нельзя точно пред- сказать и учесть. Однако при проведении некоторого числа по- вторных опытов теория вероятности и математическая статистика позволяют уточнить результат измерения, т. е. найти значение из- меряемой величины, более близкое к действительному значению, чем результат одного измерения; • промахи – грубые погрешности, связанные с ошибками оператора или неучтенными внешними воздействиями. Их обычно исключа- ют из результатов измерений. По причинам возникновения погрешности СИ делятся на: • методические – погрешности, возникающие вследствие несовер- шенства, неполноты теоретических обоснований принятого метода измерения, использования упрощающих предположений и допу- щений при выводе применяемых формул, из-за неправильного вы- бора измеряемых величин. Например, измерение температуры с помощью термопары может содержать методическую погреш- ность, вызванную нарушением температурного режима исследуе- мого объекта (вследствие внесения термопары); • инструментальные – погрешности, обусловленные свойствами применяемых СИ (стабильностью, чувствительностью к внешним воздействиям и т.д.), их влиянием на объект измерений, техноло- гией и качеством изготовления (например, неточность градуиров- ки, конструктивные несовершенства); • субъективные – погрешности, вызванные состоянием оператора, проводящего измерения, его положением во время работы, несо- вершенством органов чувств, эргономическими свойствами СИ – все это сказывается на точности визирования. Использование циф- ровых приборов и автоматических методов измерения позволяет исключить такого рода погрешности. По отношению к изменяемости измеряемой величины погрешности СИ делятся на: • статическая погрешность – погрешность СИ, используемого при измерениях постоянной величины; • динамическая погрешность – погрешность СИ, возникающая при измерении изменяющейся (в процессе измерения) физической величины. По способу выражения погрешности СИ делятся на: • абсолютная погрешность – разность между показаниями прибора и действительным значением измеряемой величины: Δ = x − xд, (1.4) где x – показания прибора; xд – действительное значение измеряе- мой величины; • относительная погрешность – погрешность СИ, выраженная от- ношением абсолютной погрешности СИ к действительному значе- нию измеренной физической величины в пределах диапазона из- мерений: δ = Δ ⋅100 %, (1.5) xд Так как x >> Δ, то вместо действительного значения измеряемой ве- личины можно использовать показания прибора; • приведённая погрешность – относительная погрешность, выра- женная отношением абсолютной погрешности СИ к условно при- нятому значению величины, постоянному во всем диапазоне изме- рений или в части диапазона. Условно принятое значение величи- ны называют нормирующим значением х норм. Приведенная по- грешность равна: γ = Δ x норм ⋅100%. (1.6)
Выбор нормирующего значения производится в соответствии с ГОСТ 8.009-84. Это может быть верхний предел измерений СИ, диапазон измерений, длина шкалы и т.д. Для многих средств измерений по приве- денной погрешности устанавливают класс точности прибора. По характеру зависимости от измеряемой величины погрешности СИ делятся на: • аддитивная погрешность – это погрешность, постоянная для ка- ждого значения измеряемой величины, вызванная поступательным смещением реальной статической характеристики (функции пре- образования) от идеальной статической характеристики; • мультипликативная погрешность – это погрешность, линейно возрастающая или убывающая с ростом измеряемой величины, вызванная поворотом реальной статической характеристики (функции преобразования) от идеальной статической характери- стики. По отношению к условиям применения погрешности СИ делятся на: • основная погрешность – погрешность СИ, определяемая в нор- мальных условиях его применения. Например, если для прибора установлены нормальные температурные условия +10…+35ОС, то в этом диапазоне гарантируется основная погрешность, указанная в паспорте. Прибор может работать в более широком диапазоне температур от 0 до +40ОС. Этот диапазон называют рабочим; • дополнительная погрешность – составляющая погрешности СИ, дополнительно возникающая вследствие отклонения какой-либо из влияющих величин от нормального ее значения или вследствие ее выхода за пределы нормальной области значений. Предел допускаемой основной погрешности – наибольшая основ- ная погрешность, при которой СИ может быть признано годным и допу- щено к применению по техническим условиям. Предел допускаемой дополнительной погрешности – это та наи- большая дополнительная погрешность, при которой средство измерения может быть допущено к применению. Например, для прибора класса точ- ности 1,0 приведенная дополнительная погрешность при изменении тем- пературы на 10°С не должна превышать ±1%. Это означает, что при изме- нении температуры среды на каждые 10°С добавляется дополнительная погрешность 1%. Пределы допускаемых основной и дополнительной погрешностей выражают в форме абсолютных, относительных и приведенных погрешно- стей. Обобщенная характеристика данного типа средств измерений, как правило, отражающая уровень их точности, определяемая пределами до- пускаемых основной и дополнительных погрешностей, а также другими характеристиками, влияющими на точность, называется классом точности СИ. Класс точности дает возможность судить о том, в каких пределах на- ходится погрешность СИ одного типа, но не является непосредственным показателем точности измерений, выполняемых с помощью каждого из этих средств, так как погрешность зависит также от метода измерений, ус- ловий измерений и т.д. Это важно учитывать при выборе СИ в зависимо- сти от заданной точности измерений. Класс точности СИ конкретного типа устанавливают в стандартах технических требований (условий) или в дру- гих нормативных документах. Например, прибор класса 0,5 может иметь основную приведенную погрешность, не превышающую 0,5%. Вместе с тем, прибор должен удовлетворять соответствующим требованиям и в от- ношении допускаемых дополнительных погрешностей.
|