Что такое относительная ошибка измеряемой величины

Погрешности измерений физических величин

При выборе измерительного оборудования всегда стоит типичная задача – количественно описать задачу измерения: что нужно измерять и с какой точностью? Вопрос о реально требуемой точности измерений  всегда является ключевым вопросом, определяющим цену оборудования, поскольку эта цена (цена полного технического решения) резко зависит от требуемой точности измерений.  

Физические величины и погрешности их измерений

Задачей физического эксперимента является определение числового значения измеряемых физических величин с заданной точностью.

Сразу оговоримся, что при выборе измерительного оборудования часто нужно также знать диапазон измерения и какое именно значение интересует: например, среднеквадратическое значение (СКЗ) измеряемой величины в определённом интервале времени, или требуется измерять среднеквадратическое отклонение (СКО) (для измерения переменной составляющей величины), или требуется измерять мгновенное (пиковое) значение. При измерении переменных физических величин (например, напряжение переменного тока) требуется знать динамические характеристики измеряемой физической величины: диапазон частот или максимальную скорость изменения физической величины. Эти данные, необходимые при выборе измерительного оборудования, зависят от физического смысла задачи измерения в конкретном физическом эксперименте.   

Итак, повторимся: задачей физического эксперимента является определение числового значения измеряемых физических величин с заданной точностью. Эта задача решается с помощью прямых или косвенных измерений.

При прямом измерении осуществляется количественное сравнение физической величины с соответствующим эталоном при помощи измерительных приборов. Отсчет по шкале прибора указывает непосредственно измеряемое значение. Например, термометр дает значения измеряемой температуры, а вольтметр – значение напряжения.

При косвенных измерениях интересующая нас физическая величина находится при помощи математических операций над непосредственно измеренными физическими величинами (непосредственно измеряя напряжение U на резисторе и ток I через него, вычисляем значение сопротивления R = U / I ).

Точность прямых измерений некоторой величины X оценивается величиной погрешности или ошибки, измерений относительно действительного значения физической величины XД.

Действительное значение величины XД (согласно РМГ 29-99) – это значение физической величины, полученное экспериментальным путем и настолько близкое к истинному значению, что в поставленной измерительной задаче может быть использовано вместо него.

Различают абсолютную (∆X) и относительную (δ) погрешности измерений.

Абсолютная погрешность измеренияэто погрешность средства измерений, выраженная в единицах измеряемой физической величины, характеризующая абсолютное отклонение измеряемой величины от действительного значения физической величины: ∆X = X  XД.

Относительная погрешность измеренияэто погрешность измерения, выраженная отношением абсолютной погрешности измерения к действительному значению измеряемой величины. Обычно относительную погрешность выражают в процентах: δ = (∆X / Xд) * 100%.

При оценке точности косвенных измерений некоторой величины X1, функционально связанной с физическими величинами X2, X3,…,   X1 = F (X2, X3, …),  учитывают погрешности прямых измерений каждой из величин X2, X3,… и характер функциональной зависимости F (). Приводим ниже примеры вычисления погрешности косвенного измерения для четырёх наиболее типичных функциональных зависимостей.

Характер функциональной зависимости F () Абсолютная погрешность косвенного измерения физической величины X1

Относительная погрешность косвенного измерения физической величины X1
(* 100%)

X1= X2+ X3 ∆X1= ∆X2+ ∆X3 δ = ( ∆X2+ ∆X3 ) / (X2+ X3)
X1= X2– X3 ∆X1= ∆X2+ ∆X3 δ = ( ∆X2+ ∆X3 ) / (X2– X3)
X1= X2* X3 ∆X1=X3*∆X2+ X2*∆X3 δ = (∆X2/X2) + (∆X3/X3)
X1= X2 / X3 ∆X1=(X3*∆X2+ X2*∆X3)/(X3)2 δ = (∆X2/X2) + (∆X3/X3)

Приведём краткое определение некоторых других погрешностей средств измерений, согласно  РМГ 29-99:

  • Погрешность средства измерений — разность между показанием средства измерений и истинным (действительным) значением измеряемой физической величины.
  • Систематическая погрешность средства измерений — составляющая погрешности средства измерений, принимаемая за постоянную или закономерную изменяющуюся.
  • Случайная погрешность средства измерений — составляющая погрешности средства измерений, изменяющаяся случайным образом.
  • Приведенная погрешность средства измерений относительная погрешность, выраженная отношением абсолютной погрешности средства измерений к условно принятому значению величины, постоянному во всем диапазоне измерений или в части диапазона.
  • Основная погрешность средства измерений погрешность средства измерений, применяемого в нормальных условиях.
  • Дополнительная погрешность средства измерений составляющая погрешности средства измерений, возникающая дополнительно к основной погрешности вследствие отклонения какой-либо из влияющих величин от нормального ее значения или вследствие ее выхода за пределы нормальной области значений.
  • Стабильность средства измерений — качественная характеристика средства измерений, отражающая неизменность во времени его метрологических характеристик (в качестве количественной оценки стабильности служит нестабильность средства измерений).
  • Нестабильность средства измерений — изменение метрологических характеристик средства измерений за установленный интервал времени.
  • Класс точности средств измерений —  обобщенная характеристика данного типа средств измерений, как правило, отражающая уровень их точности, выражаемая пределами допускаемых основной и дополнительных погрешностей, а также другими характеристиками, влияющими на точность.

По данной теме читайте также: 

  • Пределы допускаемой погрешности измерений
  • Условия измерений нормальные

Примеры использования термина

При использовании любых измерительных систем вопрос погрешности измерений является основным. Все средства измерения имеют нормированные погрешности измерений, например, выпускаемые OOO “Л  Кард”:   

 Измерительная система LTR

Измерительная система LTR

Модуль АЦП/ЦАП
16/32 каналов, 16 бит, 2 МГц, USB, Ethernet

E-502

Плата АЦП/ЦАП
16/32 каналов, 16 бит, 2 МГц, PCI Express

L-502

Модуль АЦП/ЦАП
4 канала, 14 бит, 10 МГц, USB

E20-10

2.1. Погрешности измерений, их классификация

Истинное значение
физической величины

– значение физической величины, которое
идеальным образом отражало бы в
количественном и качественном отношениях
соответствующее свойство объекта.

Результат любого
измерения отличается от истинного
значения физической величины на некоторое
значение, зависящее от точности средств
и методов измерения, квалификации
оператора, условий, в которых проводилось
измерение, и т. д. Отклонение результата
измерения от истинного значения
физической величины называется
погрешностью
измерения
.

Поскольку определить
истинное значение физической величины
в принципе невозможно, так как это
потребовало бы применения идеально
точного средства измерений, то на
практике вместо понятия истинного
значения физической величины применяют
понятие действительного
значения измеряемой величины
,
которое настолько точно приближается
к истинному значению, что может быть
использовано вместо него. Это может
быть, например, результат измерения
физической величины образцовым средством
измерения.

Абсолютная
погрешность измерения

(Δ) – это разность между результатом
измерения х
и действительным (истинным) значением
физической величины хи:

Δ
= х
х
и.
(2.1)

Относительная
погрешность измерения

(δ) – это отношение абсолютной погрешности
к действительному (истинному) значению
измеряемой величины (часто выраженное
в процентах):

δ
= (Δ / хи)·100 %
(2.2)

Приведенная
погрешность
(γ)
– это выраженное в процентах отношение
абсолютной погрешности к нормирующему
значению
ХN
– условно принятому значению физической
величины, постоянному во всем диапазоне
измерений:

γ =
(Δ /ХN)·100 %
(2.3)

Для приборов с
нулевой отметкой на краю шкалы нормирующее
значение ХN
равно конечному значению диапазона
измерений. Для приборов с двухсторонней
шкалой, т. е. с отметками шкалы,
расположенными по обе стороны от нуля
значение ХN
равно арифметической сумме модулей
конечных значений диапазона измерения.

Погрешность
измерения (результирующая
погрешность
)
является суммой двух составляющих:
систематической

и случайной
погрешностей.

Систематическая
погрешность

– это составляющая погрешности измерения,
остающаяся постоянной или закономерно
изменяющаяся при повторных измерениях
одной и той же величины. Причинами
появления систематической погрешности
могут являться неисправности средств
измерений, несовершенство метода
измерений, неправильная установка
измерительных приборов, отступление
от нормальных условий их работы,
особенности самого оператора.
Систематические погрешности в принципе
могут быть выявлены и устранены. Для
этого требуется проведение тщательного
анализа возможных источников погрешностей
в каждом конкретном случае.

Систематические
погрешности подразделяются на:

  • методические;

  • инструментальные;

  • субъективные.

Методические
погрешности

происходят от несовершенства метода
измерения, использования упрощающих
предположений и допущений при выводе
применяемых формул, влияния измерительного
прибора на объект измерения. Например,
измерение температуры с помощью термопары
может содержать методическую погрешность,
вызванную нарушением температурного
режима объекта измерения вследствие
внесения термопары.

Инструментальные
погрешности

зависят от погрешностей применяемых
средств измерения. Неточность градуировки,
конструктивные несовершенства, изменения
характеристик прибора в процессе
эксплуатации и т. д. являются причинами
основных погрешностей инструмента
измерения.

Субъективные
погрешности

вызываются неправильными отсчетами
показаний прибора человеком (оператором).
Например, погрешность от параллакса,
вызванная неправильным направлением
взгляда при наблюдении за показаниями
стрелочного прибора. Использование
цифровых приборов и автоматических
методов измерения позволяет исключить
такого рода погрешности.

Во многих случаях
систематическую погрешность в целом
можно представить как сумму двух
составляющих: аддитивной
(а)
и
мультипликативной
(м).

Если реальная
характеристика средства измерения
смещена относительно номинальной так,
что при всех значениях преобразуемой
величины Х
выходная величина Y
оказывается больше (или меньше) на одну
и ту же величину Δ, то такая погрешность
называется аддитивной
погрешностью нуля
(рис.
2.1).

Мультипликативная
погрешность

– это погрешность чувствительности
средства измерения.

Такой подход
позволяет легко скомпенсировать влияние
систематической погрешности на результат
измерения путем введения раздельных
поправочных коэффициентов для каждой
из этих двух составляющих.

Рис.
2.1. К пояснению понятий аддитивной

и
мультипликативной погрешностей

Случайная
погрешность
(с)
– это составляющая погрешности измерения,
изменяющаяся случайным образом при
повторных измерениях одной и той же
величины. Наличие случайных погрешностей
выявляется при проведении ряда измерений
постоянной физической величины, когда
оказывается, что результаты измерений
не совпадают друг с другом. Часто
случайные погрешности возникают из-за
одновременного действия многих
независимых причин, каждая из которых
в отдельности слабо влияет на результат
измерения.

Во многих случаях
влияние случайных погрешностей можно
уменьшить путем выполнения многократных
измерений с последующей статистической
обработкой полученных результатов.

В некоторых случаях
оказывается, что результат одного
измерения резко отличается от результатов
других измерений, выполненных при тех
же контролируемых условиях. В этом
случае говорят о грубой погрешности
(промахе измерения). Причиной могут
послужить ошибка оператора, возникновение
сильной кратковременной помехи, толчок,
нарушение электрического контакта и
т. д. Такой результат, содержащий
грубую
погрешность

необходимо выявить, исключить и не
учитывать при дальнейшей статистической
обработке результатов измерений.

Причины
возникновения погрешностей измерений

Имеется ряд
слагаемых погрешностей, которые являются
доминирующими в общей погрешности
измерений. К ним относятся:

  1. Погрешности,
    зависящие от средств измерений
    .
    Нормируемую допустимую погрешность
    средства измерения следует рассматривать
    как погрешность измерения при одном
    из возможных вариантов использования
    этого средства
    измерения.

  2. Погрешности,
    зависящие от установочных мер.

    Установочные меры могут быть универсальными
    (концевые меры) и специальными
    (изготовленными по виду измеряемой
    детали). Погрешность измерения будет
    меньшее, если установочная мера будет
    максимально подобна измеряемой детали
    о конструкции, массе, материалу, его
    физическим свойствам, способу базирования
    и т. д. Погрешности от концевых мер длины
    возникают из-за погрешности изготовления
    или погрешности аттестации, а также
    из-за погрешности их притирки.

  3. Погрешности,
    зависящие от измерительного усилия
    .
    При оценке влияния измерительного
    усилия на погрешность измерения
    необходимо выделить упругие деформации
    установочного узла и деформации в зоне
    контакта измерительного наконечника
    с деталью.

  4. Погрешности,
    происходящие от температурных деформаций
    .
    Погрешности возникают из-за разности
    температур объекта измерения и
    измерительного средства. Существует
    два основных источника, обуславливающих
    погрешность от температурных деформаций:
    отклонение температуры воздуха от
    20 °С и кратковременные колебания
    температуры воздуха в процессе измерения.

  5. Погрешности,
    зависящие от оператора

    (субъективные погрешности). Возможны
    четыре вида субъективных погрешностей:

  • погрешность
    отсчитывания

    (особенно важна, когда обеспечивается
    погрешность измерения, не превышающая
    цену деления);

  • погрешность
    присутствия

    (проявляется в виде влияния теплоизлучения
    оператора на температуру окружающей
    среды, а тем самым и на измерительное
    средство);

  • погрешность
    действия

    (вносится оператором при настройке
    прибора);

  • профессиональные
    погрешности

    (связаны с квалификацией оператора, с
    отношением его к процессу измерения).

  1. Погрешности при
    отклонениях от правильной геометрической
    формы
    .

  2. Дополнительные
    погрешности при измерении внутренних
    размеров
    .

При характеристике
погрешностей средств измерений часто
пользуются

понятием
предела допускаемой погрешности средств
измерений.

Предел допускаемой
погрешности средства измерений

– это наибольшая, без учета знака,
погрешность средства измерений, при
котором оно может быть признано и
допущено к применению. Определение
применимо к основной и дополнительной
погрешности средств измерений.

Учет всех нормируемых
метрологических характеристик средств
измерений является сложной и трудоемкой
процедурой. На практике такая точность
не нужна. Поэтому для средств измерений,
используемых в повседневной практике,
принято деление на классы
точности
,
которые дают их обобщенную метрологическую
характеристику.

Требования к
метрологическим характеристикам
устанавливаются в стандартах на средства
измерений конкретного типа.

Классы точности
присваиваются средствам измерений с
учетом результатов государственных
приемочных испытаний.

Класс точности
средства измерений

– обобщенная характеристика средства
измерений, определяемая пределами
допускаемых основных и дополнительных
погрешностей. Класс точности может
выражаться одним числом или дробью
(если аддитивная и мультипликативная
погрешности сопоставимы – например,
0,2/0,05 – адд./мульт.).

Обозначения классов
точности наносятся на циферблаты, щитки
и корпуса средств измерений, приводятся
в нормативно-технических документах.
Классы точности могут обозначаться
буквами (например, М, С и т. д.) или
римскими цифрами (I,
II,
III
и т. д.). Обозначение классов точности
по ГОСТу 8.401-80 может сопровождаться
дополнительными условными знаками:

  • 0,5;
    1,6; 2,5 и т. д. – для приборов, приведенная
    погрешность которых составляет 0,5; 1,6;
    2,5 % от нормирующего значения XN.
    При этом XN
    принимается равным большему из модулей
    пределов измерений, если нулевое
    значение входного (выходного) сигнала
    находится на краю или вне диапазона
    измерений;

  • 0,1,
    0,4, 1,0 и т. д. – для приборов, у которых
    относительная
    погрешность
    составляет 0,1; 0,4; 1,0 % непосредственно
    от полученного значения измеряемой
    величины x;

  • 0,02/0,01 – для
    приборов, у которых измеряемая величина
    не может отличаться от значения x,
    показанного указателем, больше, чем на
    [С+d(|XN/x|-1)]%,
    где C
    и d
    – числитель и знаменатель соответственно
    в обозначении класса точности; XN
    – больший
    (по модулю) из пределов измерений
    прибора.

Примеры обозначения
классов точности приведены на рис. 2.2.

Рис.
2.2. Лицевые панели приборов:

а
– вольтметра
класса точности 0,5; б
– амперметра
класса точности 1,5;

в
– амперметра
класса точности 0,02/0,01;

г
– мегомметра класса точности 2,5 с
неравномерной шкалой

Метрологическая
надежность средств измерения

В процессе
эксплуатации любого средства измерения
может возникнуть неисправность или
поломка, называемые отказом.

Метрологическая
надежность

средств
измерения

– это свойство средств измерений
сохранять установленные значения
метрологических характеристик в течение
определенного времени при нормальных
режимах и рабочих условиях эксплуатации.
Она характеризуется интенсивностью
отказов, вероятностью безотказной
работы и наработкой на отказ.

Интенсивность
отказов

определяется выражением:

,
(2.1)

где
L
– число отказов; N
– число однотипных элементов; ∆t
– промежуток времени.

Для средств
измерения, состоящего из
n
типов элементов, интенсивность
отказов

рассчитывается как

(2.2)

где
mi

количество элементов i-го
типа.

Вероятность
безотказной работы
:

(2.3)

Наработка на
отказ
:

(2.4)

Для внезапного
отказа, интенсивность отказов которого
не зависит от времени работы средства
измерения:

(2.5)

Межповерочный
интервал
, в
течение которого обеспечивается заданная
вероятность безотказной работы,
определяется по формуле:

,
(2.6)

где
Pмо
– вероятность метрологического отказа
за время между поверками; P(t)
– вероятность безотказной работы.

В процессе
эксплуатации может производиться
корректировка межповерочного интервала.

Поверка средств
измерения

В основе обеспечения
единообразия средств измерений лежит
система передачи размера единицы
измеряемой величины. Технической формой
надзора за единообразием средств
измерений является государственная
(ведомственная) поверка средств измерений
,
устанавливающая их метрологическую
исправность.

Поверка
– определение метрологическим органом
погрешностей средства измерений и
установление его пригодности к применению.

Пригодным к
применению в течение определенного
межповерочного
интервала

времени признают те СИ, поверка которых
подтверждает их соответствие
метрологическим и техническим требованиям
к данному СИ.

Средства измерений
подвергают первичной, периодической,
внеочередной, инспекционной и экспертной
поверкам.

Первичной поверке
подвергаются
СИ при выпуске из производства или
ремонта, а также СИ, поступающие по
импорту.

Периодической
поверке
подлежат
СИ, находящиеся в эксплуатации или на
хранении через определенные межповерочные
интервалы, установленные с расчетом
обеспечения пригодности к применению
СИ на период между поверками.

Инспекционную
поверку
производят
для выявления пригодности к применению
СИ при осуществлении госнадзора и
ведомственного метрологического
контроля за состоянием и применением
СИ.

Экспертную
поверку
выполняют
при возникновении спорных вопросов по
метрологическим характеристикам (MX),
исправности СИ и пригодности их к
применению.

Достоверная
передача размера единиц во всех звеньях
метрологической цепи от эталонов или
от исходного образцового средства
измерений к рабочим средствам измерений
производится в определенном порядке,
приведенном в поверочных схемах.

Поверочная схема
– это утвержденный в установленном
порядке документ, регламентирующий
средства, методы и точность передачи
размера единицы физической величины
от государственного эталона или исходного
образцового средства измерений рабочим
средствам.

Различают
государственные, ведомственные и
локальные поверочные схемы органов
государственной или ведомственных
метрологических служб.

Государственная
поверочная схема

распространяется на все средства
измерений данной ФВ, имеющиеся в стране.
Устанавливая многоступенчатый порядок
передачи размера единицы ФВ от
государственного эталона, требования
к средствам и методам поверки,
государственная поверочная схема
представляет собой структуру
метрологического обеспечения определённого
вида измерений в стране. Эти схемы
разрабатываются главными центрами
эталонов и оформляются одним ГОСТом
ГСИ.

Локальные
поверочные схемы

распространяются на средства измерений,
подлежащие поверке в данном метрологическом
подразделении на предприятии, имеющем
право поверки средств измерений, и
оформляются в виде стандарта предприятия.
Ведомственные и локальные поверочные
схемы не должны противоречить
государственным и должны учитывать их
требования применительно к специфике
конкретного предприятия.

Ведомственная
поверочная схема

разрабатывается органом ведомственной
метрологической службы, согласовывается
с главным центром эталонов – разработчиком
государственной поверочной схемы
средств измерений данной ФВ и
распространяется только на средства
измерений, подлежащие внутриведомственной
поверке.

Поверочная схема
устанавливает передачу размера единиц
одной или нескольких взаимосвязанных
величин. Она должна включать не менее
двух ступеней передачи размера. Поверочную
схему для СИ одной и той же величины,
существенно отличающихся по диапазонам
измерений, условиям применения и методам
поверки, а также для СИ нескольких ФВ
допускается подразделять на части. На
чертежах поверочной схемы должны быть
указаны:

  • наименования СИ
    и методов поверки;

  • номинальные
    значения ФВ или их диапазоны;

  • допускаемые
    значения погрешностей СИ;

  • допускаемые
    значения погрешностей методов поверки.
    Правила расчета параметров поверочных
    схем и оформления чертежей поверочных
    схем приведены в ГОСТ 8.061-80 «ГСИ.
    Поверочные схемы. Содержание и построение»
    и в рекомендациях МИ 83-76 «Методика
    определения параметров поверочных
    схем».

Калибровка
средств измерения

Калибровка
средства измерений

– это
совокупность операций, выполняемых
калибровочной лабораторией с целью
определения и подтверждения действительных
значений метрологических характеристик
и (или) пригодности средства измерений
к применению в сферах, не подлежащих
государственному метрологическому
контролю и надзору в соответствии с
установленными требованиями.

Результаты
калибровки средств измерений удостоверяются
калибровочным
знаком
,
наносимым на средства измерений, или
сертификатом
о калибровке,

а также записью
в эксплуатационных документах
.

Поверку (обязательная
госповерка) может выполнять, как правило,
орган государственной метрологической
службы, а калибровку –
любая
аккредитованная и неаккредитованная
организация.

Поверка обязательна
для средств измерений, применяемых в
сферах, подлежащих государственному
метрологическому контролю (ГМК),
калибровка же –
процедура
добровольная, поскольку относится к
средствам измерений, не подлежащим ГМК.
Предприятие вправе самостоятельно
решать вопрос о выборе форм и режимов
контроля состояния средств измерений,
за исключением тех областей применения
средств измерений, за которыми государства
всего мира устанавливают свой контроль
– это
здравоохранение, безопасность труда,
экология и др.

Освободившись от
государственного контроля, предприятия
попадают под не менее жёсткий контроль
рынка. Это означает, что свобода выбора
предприятия по «метрологическому
поведению» является относительной, все
равно необходимо соблюдать метрологические
правила.

В развитых странах
устанавливает и контролирует исполнение
этих правил негосударственная организация,
именуемая «национальной калибровочной
службой». Эта служба берёт на себя
функции регулирования и разрешения
вопросов, связанных со средствами
измерений, не подпадающими под контроль
государственных метрологических служб.

Желание иметь
конкурентоспособную продукцию побуждает
предприятия иметь измерительные
средства, дающие достоверные результаты.

Внедрение системы
сертификации продукции дополнительно
стимулирует поддержание измерительных
средств на соответствующем уровне. Это
согласуется с требованиями систем
качества, регламентируемыми стандартами
ИСО серии 9000.

Построение
Российской системы калибровки (РСК)
основывается на следующих принципах:

  • добровольность
    вступления;

  • обязательность
    получения размеров единиц от
    государственных эталонов;

  • профессионализм
    и компетентность персонала;

  • самоокупаемость
    и самофинансирование.

Основное звено
РСК –
калибровочная
лаборатория. Она представляет собой
самостоятельное предприятие или
подразделение в составе метрологической
службы предприятия, которое может
осуществлять калибровку средств
измерений для собственных нужд или для
сторонних организаций. Если калибровка
проводится для сторонних организаций,
то калибровочная лаборатория должна
быть аккредитована органом РСК.
Аккредитацию осуществляют государственные
научные метрологические центры или
органы Государственной метрологической
службы в соответствии со своей компетенцией
и требованиями, установленными в ГОСТе
51000.2-95 «Общие требования к аккредитующему
органу».

Порядок аккредитации
метрологической службы утвержден
постановлением Госстандарта РФ от 28
декабря 1995 г. № 95 «Порядок аккредитации
метрологических служб юридических лиц
на право проведения калибровочных
работ».

Методы поверки
(калибровки) средств измерения

Допускается
применение четырех методов
поверки
(калибровки) средств измерений:

  • непосредственное
    сличение с эталоном;

  • сличение с помощью
    компаратора;

  • прямые измерения
    величины;

  • косвенные измерения
    величины.

Метод
непосредственного сличения

поверяемого (калибруемого) средства
измерения с эталоном соответствующего
разряда широко применяется для различных
средств измерений в таких областях, как
электрические и магнитные измерения,
для определения напряжения, частоты и
силы тока. В основе метода лежит проведение
одновременных измерений одной и той же
физической величины поверяемым
(калибруемым) и эталонным приборами.
При этом определяют погрешность как
разницу показаний поверяемого и
эталонного средств измерений, принимая
показания эталона за действительное
значение величины. Достоинства этого
метода в его простоте, наглядности,
возможности применения автоматической
поверки (калибровки), отсутствии
потребности в сложном оборудовании.

Метод сличения
с помощью компаратора

основан на использовании прибора
сравнения, с помощью которого сличаются
поверяемое (калибруемое) и эталонное
средства измерения. Потребность в
компараторе возникает при невозможности
сравнения показаний приборов, измеряющих
одну и ту же величину, например, двух
вольтметров, один из которых пригоден
для постоянного тока, а другой –
переменного.
В подобных ситуациях в схему поверки
(калибровки) вводится промежуточное
звено –
компаратор.
Для приведенного примера потребуется
потенциометр, который и будет компаратором.
На практике компаратором может служить
любое средство измерения, если оно
одинаково реагирует на сигналы как
поверяемого (калибруемого), так и
эталонного измерительного прибора.
Достоинством данного метода специалисты
считают последовательное во времени
сравнение двух величин.

Метод прямых
измерений

применяется, когда имеется возможность
сличить испытуемый прибор с эталонным
в определенных пределах измерений. В
целом этот метод аналогичен методу
непосредственного сличения, но методом
прямых измерений производится сличение
на всех числовых отметках каждого
диапазона (и поддиапазонов, если они
имеются в приборе). Метод прямых измерений
применяют, например, для поверки или
калибровки вольтметров постоянного
электрического тока.

Метод косвенных
измерений

используется, когда действительные
значения измеряемых величин невозможно
определить прямыми измерениями либо
когда косвенные измерения оказываются
более точными, чем прямые. Этим методом
определяют вначале не искомую
характеристику, а другие, связанные с
ней определенной зависимостью. Искомая
характеристика определяется расчетным
путем. Например, при поверке (калибровке)
вольтметра постоянного тока эталонным
амперметром устанавливают силу тока,
одновременно измеряя сопротивление.
Расчетное значение напряжения сравнивают
с показателями калибруемого (поверяемого)
вольтметра. Метод косвенных измерений
обычно применяют в установках
автоматизированной поверки (калибровки).

Определение относительной погрешности измерений

Относительная погрешность измерений – это отношение абсолютной погрешности измерений к истинному значению измеряемой величины, в долях или процентах:

$ δ = frac{Delta x}{x_{ист}}$ или $ δ = frac{Delta x}{x_{ист}} cdot 100 text{%} $

Правила округления

На практике относительную погрешность округляют до двух значащих цифр, выполняя округление с избытком, т.е. всегда увеличивая последнюю значащую цифру на единицу.

Например:

Для x = 1, $7 pm 0,2$ относительная погрешность измерений

$δ = frac{0,2}{1,7} cdot 100 text{%} approx 11,8 text{%} approx 12 text{%}$ — погрешность достаточно велика.

Внимание!

Чем меньше относительная погрешность измерения, тем оно точнее.

Примеры

Пример 1. Согласно данным эксперимента, проведенного в 1975 году, скорость света равна $c = 299 792 458 pm 1,2 м/с$. Найдите относительную погрешность измерений в этом эксперименте в долях и процентах.

$$ δ = frac{1,2}{299 792 458} approx 4,0 cdot 10^{-9} $$

$$δ = 4,0 cdot 10^{-9} cdot 100 text{%} approx (4,0 cdot 10^{-7} ) text{%} $$

Пример 2. В результате школьного эксперимента ускорение свободного падения оказалось равным $g = 10,0 pm 0,1 м/с^2$. Определите относительную погрешность для данного эксперимента, а также относительную погрешность по отношению к табличной величине $g_0 = 9,81 м/с^2$. Что вы можете сказать о систематической ошибке эксперимента?

Для данного эксперимента $δ = frac{0,1}{10,0} cdot 100 text{%} = 1,0 text{%} $

Относительная погрешность по отношению к табличной величине:

$$ δ_{таб} = frac{|g-g_0 |}{g_0} cdot 100 text{%}, δ_{таб} = frac{|10,0-9,81|}{9,81} cdot 100 text{%} approx 1,9 text{%} $$

Согласно полученным результатам $9,9 le g le 10,1$, табличное значение в этот отрезок не входит. В эксперименте присутствует систематическая ошибка: результаты систематически завышены.

Пример 3. При взвешивании масса слона оказалась равной $M = 3,63 pm 0,01$ т, а масса муравья $m = 41,2 pm 0,5$ мг. Какое измерение точнее?

Найдем относительные погрешности измерений:

$$ δ_M = frac{0,01}{3,63} cdot 100 text{%} approx 0,28 text{%} $$

$$ δ_m = frac{0,5}{41,2} cdot 100 text{%} approx 1,21 text{%} approx ↑1,3 text{%} $$

Таким образом, масса слона определена точнее.

Пример 4. Вольтметр измеряет напряжение с относительной погрешностью 0,5%. Найдите границы точного значения величины, если при измерении получено $V_0$ = 5 В.

Абсолютная погрешность измерений данным вольтметром:

$$ Delta V = V_0 cdot δ, Delta V = 5 cdot 0,005 = 0,025 (В) approx 0,03(В) $$

Границы точного значения:

$$ V = 5,00 pm 0,03 (В) или 4,97 le V le 5,03 (В) $$

Абсолютная и относительная погрешность


Абсолютная и относительная погрешность

4.2

Средняя оценка: 4.2

Всего получено оценок: 2205.

4.2

Средняя оценка: 4.2

Всего получено оценок: 2205.

Абсолютную и относительную погрешность используют для оценки неточности в производимых расчетах с высокой сложностью. Также они используются в различных измерениях и для округления результатов вычислений. Рассмотрим, как определить абсолютную и относительную погрешность.

Опыт работы учителем математики — более 33 лет.

Абсолютная погрешность

Абсолютной погрешностью числа называют разницу между этим числом и его точным значением.
Рассмотрим пример: в школе учится 374 ученика. Если округлить это число до 400, то абсолютная погрешность измерения равна 400-374=26.

Для подсчета абсолютной погрешности необходимо из большего числа вычитать меньшее.

Существует формула абсолютной погрешности. Обозначим точное число буквой А, а буквой а – приближение к точному числу. Приближенное число – это число, которое незначительно отличается от точного и обычно заменяет его в вычислениях. Тогда формула будет выглядеть следующим образом:

Δа=А-а. Как найти абсолютную погрешность по формуле, мы рассмотрели выше.

На практике абсолютной погрешности недостаточно для точной оценки измерения. Редко когда можно точно знать значение измеряемой величины, чтобы рассчитать абсолютную погрешность. Измеряя книгу в 20 см длиной и допустив погрешность в 1 см, можно считать измерение с большой ошибкой. Но если погрешность в 1 см была допущена при измерении стены в 20 метров, это измерение можно считать максимально точным. Поэтому в практике более важное значение имеет определение относительной погрешности измерения.

Записывают абсолютную погрешность числа, используя знак ±. Например, длина рулона обоев составляет 30 м ± 3 см. Границу абсолютной погрешности называют предельной абсолютной погрешностью.

Относительная погрешность

Относительной погрешностью называют отношение абсолютной погрешности числа к самому этому числу. Чтобы рассчитать относительную погрешность в примере с учениками, разделим 26 на 374.

Получим число 0,0695, переведем в проценты и получим 7 %. Относительную погрешность обозначают процентами, потому что это безразмерная величина. Относительная погрешность – это точная оценка ошибки измерений. Если взять абсолютную погрешность в 1 см при измерении длины отрезков 10 см и 10 м, то относительные погрешности будут соответственно равны 10 % и 0,1 %. Для отрезка длиной в 10 см погрешность в 1 см очень велика, это ошибка в 10 %. А для десятиметрового отрезка 1 см не имеет значения, всего 0,1 %.

Различают систематические и случайные погрешности. Систематической называют ту погрешность, которая остается неизменной при повторных измерениях. Случайная погрешность возникает в результате воздействия на процесс измерения внешних факторов и может изменять свое значение.

Правила подсчета погрешностей

Для номинальной оценки погрешностей существует несколько правил:

  • при сложении и вычитании чисел необходимо складывать их абсолютные погрешности;
  • при делении и умножении чисел требуется сложить относительные погрешности;
  • при возведении в степень относительную погрешность умножают на показатель степени.

Приближенные и точные числа записываются при помощи десятичных дробей. Берется только среднее значение, поскольку точное может быть бесконечно длинным. Чтобы понять, как записывать эти числа, необходимо узнать о верных и сомнительных цифрах.

Верными называются такие цифры, разряд которых превосходит абсолютную погрешность числа. Если же разряд цифры меньше абсолютной погрешности, она называется сомнительной. Например, для дроби 3,6714 с погрешностью 0,002 верными будут цифры 3,6,7, а сомнительными – 1 и 4. В записи приближенного числа оставляют только верные цифры. Дробь в этом случае будет выглядеть таким образом – 3,67.

Заключение

Что мы узнали?

Абсолютные и относительные погрешности используются для оценки точности измерений. Абсолютной погрешностью называют разницу между точным и приближенным числом. Относительная погрешность – это отношение абсолютной погрешности числа к самому числу. На практике используют относительную погрешность, так как она является более точной.

Тест по теме

Доска почёта

Доска почёта

Чтобы попасть сюда — пройдите тест.

  • Светлана Лобанова-Асямолова

    10/10

  • Валерий Соломин

    10/10

  • Анастасия Юшкова

    10/10

  • Ксюша Пономарева

    7/10

  • Паша Кривов

    10/10

  • Евгений Холопик

    9/10

  • Guzel Murtazina

    10/10

  • Максим Аполонов

    10/10

  • Olga Bimbirene

    9/10

  • Света Колодий

    10/10

Оценка статьи

4.2

Средняя оценка: 4.2

Всего получено оценок: 2205.


А какая ваша оценка?

May 8 2015, 14:46

Абсолютные ,относительные и приведенные погрешности измерений

Абсолютная погрешность – это разница между измеренной датчиком величиной Хизм и действительным значением Хд этой величины.

1
Действительное значение Хд измеряемой величины это найденное экспериментально значение измеряемой величины максимально близкое к ее истинному значению. Говоря простым языком действительное значение Хд это значение, измеренное эталонным прибором, или сгенерированное калибратором или задатчиком высокого класса точности. Абсолютная погрешность выражается в тех же единицах измерения, что и измеряемая величина (например, в м3/ч, мА, МПа и т.п.). Так как измеренная величина может оказаться как больше, так и меньше ее действительного значения, то погрешность измерения может быть как со знаком плюс (показания прибора завышены), так и со знаком минус (прибор занижает).
См.Абсолютная погрешность микрокомпьютерного расходомера скоростемера МКРС
Относительная погрешность – это отношение абсолютной погрешности измерения Δ к действительному значению Хд измеряемой величины.

2

Относительная погрешность выражается в процентах, либо является безразмерной величиной, а также может принимать как положительные, так и отрицательные значения.
См.Относительная погрешность ультразвукового  уровнемера ЭХО-АС-01
Приведенная погрешность – это отношение абсолютной погрешности измерения Δ к нормирующему значению Хn, постоянному во всем диапазоне измерения или его части.

3
Нормирующее значение Хn зависит от типа шкалы датчика КИП:

  1. Если шкала датчика односторонняя и нижний предел измерения равен нулю (например, шкала датчика от 0 до 150 м3/ч), то Хn принимается равным верхнему пределу измерения (в нашем случае Хn = 150 м3/ч).
  2. Если шкала датчика односторонняя, но нижний предел измерения не равен нулю (например, шкала датчика от 30 до 150 м3/ч), то Хn принимается равным разности верхнего и нижнего пределов измерения (в нашем случае Хn = 150-30 = 120 м3/ч).
  3. Если шкала датчика двухсторонняя (например, от -50 до +150 ˚С), то Хn равно ширине диапазона измерения датчика (в нашем случае Хn = 50+150 = 200 ˚С).

Приведенная погрешность выражается в процентах, либо является безразмерной величиной, а также может принимать как положительные, так и отрицательные значения.

Довольно часто в описании на тот или иной датчик указывается не только диапазон измерения, например, от 0 до 50 мг/м3, но и диапазон показаний, например, от 0 до 100 мг/м3. Приведенная погрешность в этом случае нормируется к концу диапазона измерения, то есть к 50 мг/м3, а в диапазоне показаний от 50 до 100 мг/м3 погрешность измерения датчика не определена вовсе – фактически датчик может показать все что угодно и иметь любую погрешность измерения. Диапазон измерения датчика может быть разбит на несколько измерительных поддиапазонов, для каждого из которых может быть определена своя погрешность как по величине, так и по форме представления. При этом при поверке таких датчиков для каждого поддиапазона могут применяться свои образцовые средства измерения, перечень которых указан в методике поверки на данный прибор.

Возможно, вам также будет интересно:

  • Что такое отложенные ошибки автомобиль
  • Что такое орфоэпические и акцентологические ошибки примеры
  • Что такое отложенные ошибки obd
  • Что такое орфоэпические и акцентологические ошибки в современной речи
  • Что такое отладка программы типы ошибок в программе

  • Понравилась статья? Поделить с друзьями:
    0 0 голоса
    Рейтинг статьи
    Подписаться
    Уведомить о
    guest

    0 комментариев
    Старые
    Новые Популярные
    Межтекстовые Отзывы
    Посмотреть все комментарии