Как можно классифицировать ошибки измерения

Классификация ошибок измерения

Любая
физическая величина может быть измерена
путем сравнения её с однородной величиной,
принятой за единицу (эталоном).

Измерения
бывают прямые и косвенные. В результате
прямых измерений определяемая физическая
величина получается сразу, непосредственно.
Примерами прямых измерений служат
определения длины (линейкой,
штангенциркулем), силы электрического
тока (амперметром). При косвенных
измерениях искомая величина вычисляется
по результатам прямых измерений других
величин, связанных с искомой некоторой
формулой.

Любое
измерение не может быть абсолютно
точным. Между истинным ХИСТ
и измеренным значением физической
величины Х
существует некоторая разность

ΔХ
=
½Х
– Х
ИСТ½,
(1.1)

которая
называется абсолютной ошибкой результата
измерения.

Чтобы
охарактеризовать качество измерения
и иметь возможность сравнить результаты
измерений различных физических величин,
вводится понятие относительной
погрешности, под которым подразумевают
отношение абсолютной ошибки измерения
к истинному значению измеряемой величины.

. (1.2)

Чем
меньше относительная погрешность, тем
выше точность измерения. Погрешности,
или ошибки измерения, можно разделить
на три класса: грубые ошибки, или промахи;
систематические ошибки; случайные
ошибки.

Грубые
ошибки появляются в результате
небрежности, невнимательности
экспериментатора (неправильные отсчеты
по прибору, неправильная запись результата
и т.п.). В большинстве случаев промахи
хорошо заметны, так как резко отличаются
от результатов других измерений.

Систематические
ошибки могут быть вызваны методикой
постановки эксперимента, ограниченной
точностью измерительных приборов,
дефектами самого объекта исследования
и т.д. Величина и знак систематической
погрешности могут оставаться неизменными
при многократном повторении одних и
тех же измерений. В некоторых случаях
влияние систематических погрешностей
на результат измерения можно учесть,
если ввести соответствующие поправки.

Случайные
ошибки обусловлены действием самых
разнообразных и неконтролируемых
причин. Поэтому результаты повторных
измерений одной и той же физической
величины могут не совпадать даже при
том, что они проводятся в неизменных
условиях одним и тем же методом (такие
измерения называют равноточными).

Случайные
ошибки могут иметь любую величину,
положительный или отрицательный знак.
Ошибки, противоположные по знаку, но
равные по абсолютной величине, встречаются
в среднем одинаково часто. Закономерности,
которым подчиняются случайные ошибки,
и способы их оценки изучают в разделе
математики «Теория ошибок», основанном
на законах теории вероятности и
математической статистики.

Методика расчета случайных ошибок прямых измерений

Пусть
измеряется n
раз некоторая физическая величина Х.
Из-за случайных погрешностей, возникающих
в процессе измерения, мы получаем набор
значений Х1,
Х2,
Х3,
…, Хn.
Наиболее близким к истинному значению
ХИСТ
будет среднее арифметическое

. (1.3)

Чем
больше измерений, тем ближе < X
> и ХИСТ,
а при

.

В
реальном эксперименте число измерений
всегда ограничено, поэтому истинное
значение измеряемой величины остается
неизвестным. Результаты отдельных
измерений Хi
и среднее арифметическое < X
> всегда содержат ошибку, поэтому
вместе с результатом измерений нужно
указать возможную величину ошибки, т.е.
представить результат в виде

.

Эта запись
равнозначна неравенству

.
(1.4)

Существует
несколько способов оценки случайной
ошибки DХ.
Мы рассмотрим один из них, наиболее
часто используемый при обработке
результатов эксперимента. По результатам
измерений рассчитывают так называемую
среднюю квадратическую ошибку среднего
арифметического:

.
(1.5)

Так
как результаты отдельных измерений Хi
и среднее арифметическое – случайные
величины, то и S<
Х >

тоже
случайная величина. Поэтому мы не можем
утверждать, например, что возможная
ошибка DХ
не превышает величины S<
Х >
.
Следовательно, нужно не только рассчитать
возможную величину ошибки, но и указать
вероятность того, что среднее арифметическое
отличается от ХИСТ
не более чем на величину DХ,
т.е. вероятность, с которой выполняется
неравенство (1.4).

Область
значений
называется доверительным интервалом,
а соответствующая вероятность –
доверительнойα.
Доверительная вероятность является
весьма важной характеристикой измерений,
так как позволяет судить о надежности
полученного результата.

Для
нахождения доверительной вероятности
необходимо знать закон распределения
случайной величины (Хi;
< Х >; S
<
Х >
).
Наиболее часто встречается на практике
распределение Гаусса (нормальное
распределение):

.

Здесь
f(х) –
функция распределения случайной величины
Х.
Произведение f(х)
· dх
равно
вероятности того, что случайная величина
примет значение, заключенное между Х
и Х
+
DХ.

Графически закон
Гаусса представлен на рис. 1.5.

Рис.
1.5

Кривая
Гаусса характеризуется двумя параметрами:
ХИСТ
и σ.

ХИСТ
определяет положение вершины, а σ
– ширину кривой (2
σ
– расстояние
между точками перегиба). Параметр σ
называют стандартным отклонением или
средним квадратическим. Он определяет
разброс результатов измерений около
ХИСТ,
т.е. характеризует степень влияния
случайных погрешностей на результаты
измерений. На
рис. 1.5 показаны две гауссовы кривые для
разных значений стандартного отклонения

1
и σ
2
). В
законе Гаусса σ
2
носит
название дисперсии случайной величины
(дисперсия – разброс).

Среднее
арифметическое, как случайная величина,
тоже описывается законом Гаусса с
параметрами
,

.

Среднее
значение является лучшей оценкой для
ХИСТ,
чем результат
отдельного измерения, так как кривая f
(< х >)
в n
раз уже.

При
известном параметре σ
< Х >
доверительная вероятность:

.

Если
задать доверительный интервал
,
то
= 0,682; если
,
то,
то.

Указанные
значения доверительной вероятности
относятся к бесконечно большому числу
измерений. В практике физического
эксперимента N
часто не превышает 10, а параметр
неизвестен.
Если запринять,
то доверительная вероятность, рассчитанная
на основе закон Гаусса, оказывается
завышенной.

Существует
другой,
более строгий метод определения
доверительной вероятности, основанный
на распределении Стьюдента
,
которое учитывает случайный характер
величины
.
Распределение Стьюдента не содержит
неизвестных параметровХИСТ,

и
существенно отли­чается от гауссового
при малом числе измерений (N
< 30).

В физическом лабораторном практикуме
обычно ставится такая задача: по заданной
доверительной вероятности нужно оценить
величину доверительного интервала.
На основе распределения Стьюдента
доверительный интервал

,

где

– коэффициент
Стьюдента.

Существуют
таблицы, в которых даны значения
коэффициента Стьюдента

для разных
значений доверительной вероятности и
различного числа измерений (табл. 1.1).

Таблица 1.1

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]

  • #
  • #
  • #
  • #
  • #
  • #
  • #
  • #
  • #
  • #
  • #

Классификация погрешностей измерений

Качество средств и результатов измерений принято характеризовать, указывая их погрешности. Введение понятия «погрешность» требует определения и четкого разграничения трех понятий: истинного и действительного значений измеряемой физической величины и результата измерения. Истинное значение физической величиныэто значение, идеальным образом отражающее свойство данного объекта как в количественном, так и в качественном отношении. Оно не зависит от средств нашего познания и является той абсолютной истиной, к которой мы стремимся, пытаясь выразить ее в виде числовых значений. На практике это абстрактное понятие приходится заменять понятием «действительное значение».

Действительное значение физической величины — значение, найденное экспериментально и настолько приближающееся к истинному, что для данной цели оно может быть использовано вместо него. Результат измерения представляет собой приближенную оценку истинного значения величины, найденную путем измерения.

Понятие «погрешность» — одно из центральных в метрологии, где используются понятия «погрешность результата измерения» и «погрешность средства измерения». Погрешность результата измерения — это разница между результатом измерения X и истинным (или действительным) значением Q измеряемой величины:

Δ = X–Q. (5.1)

Она указывает границы неопределенности значения измеряемой величины. Погрешность средства измерения — разность между показанием СИ и истинным (действительным) значением измеряемой ФВ. Она характеризует точность результатов измерений, проводимых данным средством.

Эти два понятия во многом близки друг к другу и классифицируются по одинаковым признакам.

Характер проявления

По характеру проявления погрешности делятся на случайные, систематические, прогрессирующие и грубые (промахи),

Заметим, что из приведенного выше определения погрешности никак не следует, что она должна состоять из каких-либо составляющих. Деление погрешности на составляющие было введено для удобства обработки результатов измерений исходя из характера их проявления. В процессе формирования метрологии было обнаружено, что погрешность не является постоянной величиной. Путем элементарного анализа установлено, что одна ее часть проявляется как постоянная величина, а другая — изменяется непредсказуемо. Эти части назвали систематической и случайной погрешностями.

Изменение погрешности во времени представляет собой нестационарный случайный процесс. Разделение погрешности на систематическую, прогрессирующую и случайную составляющие представляет собой попытку описать различные участки частотного спектра этого широкополосного процесса: инфранизкочастотный, низкочастотный и высокочастотный.

Случайная погрешность — составляющая погрешности измерения, изменяющаяся случайным образом (по знаку и значению) в серии повторных измерений одного и того же размера ФВ, проведенных с одинаковой тщательностью в одних и тех же условиях. В появлении таких погрешностей (рис. 5.1) не наблюдается какой-либо закономерности, они обнаруживаются при повторных измерениях одной и той же величины в виде некоторого разброса получаемых результатов. Случайные погрешности неизбежны, неустранимы и всегда присутствуют в результате измерения. Описание случайных погрешностей возможно только на основе теории случайных процессов и математической статистики.

Изменение случайной погрешности от измерения к измерении

Рис. 5.1. Изменение случайной погрешности от измерения к измерении

В отличие от систематических случайные погрешности нельзя исключить из результатов измерений путем введения поправки, однако их можно существенно уменьшить путем увеличения числа наблюдений. Поэтому для получения результата, минимально отличающегося от истинного значения измеряемой величины, проводят многократные измерения требуемой величины с последующей математической обработкой экспериментальных данных.

Большое значение имеет изучение случайной погрешности как функции номера наблюдения i или соответствующего ему момента времени t{ проведения измерений, т.е. Δ=A(t). Отдельные значения погрешности являются значениями функции A(t), следовательно, погрешность измерения есть случайная функция времени. При проведении многократных измерений получается одна реализация такой функции. Именно такая реализация показана на рис. 5.1. Повтор серии измерений даст нам другую реализацию этой функции, отличающуюся от первой, и т. д. Погрешность, соответствующая каждому i-му измерению, является сечением случайной функции A(t). В каждом сечении данной функции можно найти среднее значение, вокруг которого группируются погрешности в различных реализациях. Если через полученные таким образом средние значения провести плавную кривую, то она будет характеризовать общую тенденцию изменения погрешности во времени.

Систематическая погрешность — составляющая погрешности измерения, остающаяся постоянной или закономерно меняющаяся при повторных измерениях одной и той же ФВ. Постоянная и переменная систематические погрешности показаны на рис. 5.2. Их отличительный признак заключается в том, что они могут быть предсказаны, обнаружены и благодаря этому почти полностью устранены введением соответствующей поправки.

Некоторые исследователи считают систематическую погрешность специфической, «вырожденной» случайной величиной, обладающей некоторыми, но не всеми свойствами случайной величины, изучаемой в теории вероятностей и математической статистике. Ее свойства, которые необходимо учитывать при объединении составляющих погрешности, отражаются теми же характеристиками, что и свойства «настоящих» случайных величин: дисперсией (средним квадратическим отклонением) и коэффициентом взаимной корреляции.

Прогрессирующая (дрейфовая) погрешность — это непредсказуемая погрешность, медленно меняющаяся во времени. Отличительные особенности прогрессирующих погрешностей:

  • они могут быть скорректированы поправками только в данный момент времени, а далее вновь непредсказуемо изменяются;
  • изменения прогрессирующих погрешностей во времени — нестационарный случайный процесс, и поэтому в рамках хорошо разработанной теории стационарных случайных процессов они могут быть описаны лишь с известными оговорками.

Постоянная и переменная систематические погрешности

Рис. 5.2. Постоянная и переменная систематические погрешности

Прогрессирующая погрешность — это понятие, специфичное для нестационарного случайного процесса изменения погрешности во времени, оно не может быть сведено к понятиям случайной и систематической погрешностей. Последние характерны лишь для стационарных случайных процессов.

Понятие прогрессирующей погрешности широко используется при исследовании динамики погрешностей СИ и метрологической надежности последних.

Грубая погрешность (промах) это случайная погрешность результата отдельного наблюдение входящего в ряд измерений, которая для данных условий резко отличается от остальных результатов этого ряда. Они, как правило, возникают из-за ошибок или неправильных действий оператора (его психофизиологического состояния, неверного отсчета, ошибок в записях или вычислениях, неправильного включения приборов или сбоев в их работе и др.). Возможной причиной возникновения промахов также могут быть кратковременные резкие извинения условий проведения измерений. Если промахи обнаруживаются в процессе измерений, то результаты, их содержащие, отбрасывают. Однако чаще всего промахи выявляют только при окончательной обработке результатов измерений с помощью специальных критериев, которые рассмотрены в ниже.

Способ выражения

По способу выражения различают абсолютную, относительную и приведенную погрешности.

Абсолютная погрешность описывается формулой (5.1) и выражается в единицах измеряемой величины. Однако она не может в полной мере служить показателем точности измерений, так как одно и то же ее значение, например, Δ = 0,05мм при X = 100 мм соответствует достаточно высокой точности изменений, а при X= 1 мм – низкой.

Поэтому и вводится понятие относительной погрешности. Относительная погрешность– это отношение абсолютной погрешности измерения к истинному значению измеряемой величины:

δ=Δ/Q=(X–Q)/Q.

Эта наглядная характеристика точности результата измерения не годится для нормирования погрешности СИ, так как при изменении значений Q принимает различные значения вплоть до бесконечности при Q = О. В связи с этим для указания и нормирования погрешности СИ используется еще одна разновидность погрешности – приведенная.

Приведенная погрешность – (это относительная погрешность, в которой абсолютная погрешность СИ отнесена к условно принятому значению QN, постоянному во всем диапазоне измерений или его части:

γ=Δ/QN= (X — Q)/QN.

Условно принятое значение QN называют нормирующим. Чаще всего за него принимают верхний предел измерений данного СИ, применительно к которым и используется главным образом понятие «приведенная погрешность».

В зависимости от места возникновения различают инструментальные, методические и субъективные погрешности.

Инструментальная погрешность обусловлена погрешностью применяемого СИ. Иногда эту погрешность называют аппаратурной.

Методическая погрешность измерения обусловлена:

  • отличием принятой модели объекта измерения от модели, адекватно описывающей его свойство, которое определяется путем измерения;
  • влиянием способов применения СИ. Это имеет место, например, при измерении напряжения вольтметром с конечным значением внутреннего сопротивления. В данном случае вольтметр шунтирует участок цепи, на котором измеряется напряжение, и оно оказывается меньше, чем было до присоединения вольтметра;
  • влиянием алгоритмов (формул), по которым производятся вычисления результатов измерений;
  • влиянием других факторов, не связанных со свойствами используемых средств измерения.

Отличительной особенностью методических погрешностей является то, что они не могут быть указаны в нормативно-технической документации на используемое СИ, поскольку от него не зависят, а должны определяться оператором в каждом конкретном случае. В связи с этим оператор должен четко различать фактически измеряемую им величину и величину, подлежащую измерению.

Субъективная (личная) погрешность измерения обусловлена погрешностью отсчета оператором показаний по шкалам СИ, диаграммам регистрирующих приборов. Они вызываются состоянием оператора, его положением во время работы, несовершенством органов чувств, эргономическими свойствами СИ. Характеристики личной погрешности определяют на основе нормированной номинальной цены деления шкалы измерительного прибора (или диаграммной бумаги регистрирующего прибора) с учетом способности «среднего оператора», к интерполяции в пределах деления шкалы.

По зависимости абсолютной погрешности от значений измеряемой величины различают погрешности (рис. 5.3):

  • аддитивные не зависящие от измеряемой величины;
  • мультипликативные которые прямо пропорциональны измеряемой величине;
  • нелинейные имеющие нелинейную зависимость от измеряемой величины.

Аддитивная, мультипликативная и нелинейная погрешности

Рис. 5.3. Аддитивная (а), мультипликативная (б) и нелинейная (в) погрешности

Эти погрешности применяют в основном для описания метрологических характеристик СИ. Разделение погрешностей на аддитивные, мультипликативные и нелинейные весьма существенно при решении вопроса о нормировании и математическом описании погрешностей СИ.

Примеры аддитивных погрешностей — от постоянного груза на чашке весов, от неточной установки на нуль стрелки прибора перед измерением, от термо-ЭДС в цепях постоянного тока. Причинами возникновения мультипликативных погрешностей могут быть: изменение коэффициента усиления усилителя, изменение жесткости мембраны датчика манометра или пружины прибора, изменение опорного напряжения в цифровом вольтметре.

Влияне внешних условий

По влиянию внешних условий различают основную и дополнительную погрешности СИ. Основной называется погрешность СИ, определяемая в нормальных условиях его применения. Для каждого СИ в нормативно-технических документах оговариваются условия эксплуатации — совокупность влияющих величин (температура окружающей среды, влажность, давление, напряжение и частота питающей сети и др.), при которых нормируется его погрешность. Дополнительной называется погрешность СИ, возникающая вследствие отклонения какой-либо из влияющих величин.

В зависимости от влияния характера изменения измеряемых величин погрешности СИ делят на статические и динамические. Статическая погрешность — это погрешность СИ применяемого для измерения ФВ, принимаемой за неизменную. Динамической называется погрешность СИ, возникающая дополнительно при измерении переменной ФВ и обусловленная несоответствием его реакции на скорость (частоту) изменения измеряемого сигнала.

В связи с приведенными краткими характеристиками различных по природе погрешностей остановимся на попытках ввести некоторые термины, характеризующие результаты измерении, в зависимости от вида погрешностей.

Похожие материалы

В зависимости от обстоятельств, при которых проводились измерения, а также в зависимости от целей измерения, выбирается та или иная классификация погрешностей. Иногда используют одновременно несколько взаимно пересекающихся классификаций, желая по нескольким признакам точно охарактеризовать влияющие на результат измерения физические величины. В таком случае рассматривают, например, инструментальную составляющую неисключённой систематической погрешности. При выборе классификаций важно учитывать наиболее весомые или динамично меняющиеся или поддающиеся регулировке влияющие величины. Ниже приведены общепринятые классификации согласно типовым признакам и влияющим величинам.

По виду представления, различают абсолютную, относительную и приведённую погрешности.

Абсолютная погрешность это разница между результатом измерения X и истинным значением Q измеряемой величины. Абсолютная погрешность находится как D = X — Q и выражается в единицах измеряемой величины.

Относительная погрешность это отношение абсолютной погрешности измерения к истинному значению измеряемой величины: d = D / Q = (X – Q) / Q .

Приведённая погрешность это относительная погрешность, в которой абсолютная погрешность средства измерения отнесена к условно принятому нормирующему значению QN , постоянному во всём диапазоне измерений или его части. Относительная и приведённая погрешности – безразмерные величины.

В зависимости от источника возникновения, различают субъективную, инструментальную и методическую погрешности.

Субъективная погрешность обусловлена погрешностью отсчёта оператором показаний средства измерения.

Инструментальная погрешность обусловлена несовершенством применяемого средства измерения. Иногда эту погрешность называют аппаратурной. Метрологические характеристики средств измерений нормируются согласно ГОСТ 8.009 – 84, при этом различают четыре составляющие инструментальной погрешности: основная, дополнительная, динамическая, интегральная. Согласно этой классификации, инструментальная погрешность зависит от условий и режима работы, а также от параметров сигнала и объекта измерения.

Методическая погрешность обусловлена следующими основными причинами:

– отличие принятой модели объекта измерения от модели, адекватно описывающей его метрологические свойства;

– влияние средства измерения на объект измерения;

– неточность применяемых при вычислениях физических констант и математических соотношений.

В зависимости от измеряемой величины, различают погрешность аддитивную и мультипликативную. Аддитивная погрешность не зависит от измеряемой величины. Мультипликативная погрешность меняется пропорционально измеряемой величине.

В зависимости от режима работы средства измерений, различают статическую и динамическую погрешности.

Динамическая погрешность обусловлена реакцией средства измерения на изменение параметров измеряемого сигнала (динамический режим).

Статическая погрешность средства измерения определяется при параметрах измеряемого сигнала, принимаемых за неизменные на протяжении времени измерения (статический режим).

По характеру проявления во времени, различают случайную и систематическую погрешности.

Систематической погрешностью измерения называют погрешность, которая при повторных измерениях одной и той же величины в одних и тех же условиях остаётся постоянной или закономерно меняется.

Случайной погрешностью измерения называют погрешность, которая при повторных измерениях одной и той же величины в одних и тех же условиях изменяется случайным образом.

Погрешности измерений и их
классификация
.

При
измерении физических величии с помощью даже самых точных и совершенных средств
и методов
их результат всегда отличается от истин­ного
значения измеряемой физической величины, т.е. определяется с неко­торой
погрешностью.
Источниками погрешностей измерения являются сле­дующие
причины: несовершенство используемых методов и средств измере­ний,
нестабильность измеряемых физических величин, непостоянство климатических
условий, внешние и внутренние помехи, а также различные субъек­тивные факторы
экспериментатора.

Определение
«погрешность» является одним из центральных в метрологии, в котором
используются понятия «погрешность результата измере­ния» и «погрешность
средства измерения».

Погрешностью результата измерения (погрешностью измерения) называется отклонение
результата измерения от истинного значения измеряемой физической величины. Так
как истинное значение измеряемой величины неизвестно, то при количественной
оценке погрешности пользуются
дейст­вительным значением физической
величины.

Это
значение находится экспериментальным путем и настолько близко к истинному
значению, что для поставленной измерительной задачи может быть использовано
вместо него.

Погрешность средства измерения (СИ) — разность между показаниями СИ
и истинным (действительным) значением измеряемой физической величины. Она
характеризует точность результатов измерений, проводимых дан­ным
средством

Существует пять основных
признаков, по
которым классифицируются погрешности измерения.

По
способу количественного выражения погрешности измерения делятся на абсолютные,
относительные и приведенные.

Абсолютной погрешностью , выражаемой в единицах
измеряемой величины, называется отклонение результата измерения
х от истинного зна­чения хн:                                (1.1)

и знак полученной
погрешности, но не определяет качество самого проведенного измерения.

Понятие
погрешности характеризует как бы несовершенство измере­ния.
Характеристикой качества измерения является используемое в метроло­гии понятие
точности измерений, отражающее меру близости результатов измерений к истинному
значению измеряемой физической величины. Точ­ность и погрешность связаны
обратной зависимостью. Иначе говоря, высо­кой точности измерений соответствует
малая погрешность. Так, например, измерение силы тока в 10 А и 100 А может быть
выполнено с идентичной аб­солютной погрешностью ∆ = ±1 А. Однако качество
(точность) первого из­мерения ниже второго. Поэтому, чтобы иметь возможность
сравнивать каче­ство измерений, введено понятие относительной погрешности.

Относительной погрешностью δ называется отношение
абсолютной погрешности измерения к истинному значению измеряемой величины:

                                                                   (1.2)

Мерой
точности измерений служит величина,
обратная модулю отно­сительной погрешности, т.е. 1/|δ|. Погрешность δ часто выражают в
про­центах:

δ
= 100
н (%). Поскольку обычно △⋍хн, то относительная по­грешность
может быть определена как δ
или δ = 100/х (%).

Если
измерение выполнено однократно и за
абсолютную погрешность результата измерения
принята разность между
показанием прибора и ис­тинным значением измеряемой величины
хН то из соотношения (1.2)
следу­ет, что значение относительной погрешности δ уменьшается с ростом вели­чины
хн  (здесь предполагается
независимость
от хн). Поэтому для изме­рений
целесообразно выбирать такой прибор, показания которого были бы в последней
части его шкалы (диапазона измерений), а для сравнения различ­ных приборов
использовать понятие приведенной погрешности.

Приведенной погрешностью δпр, выражающей
потенциальную точ­ность измерений, называется отношение абсолютной погрешности
к неко­торому нормирующему
значению
XN (например, к конечному
значению шкалы прибора или сумме конечных значений шкал при двусторонней шка­ле).     

По
характеру (закономерности) изменения погрешности измерений подразделяются на
систематические, случайные и грубые (промахи).

Систематические погрешности с — составляющие погрешности из­мерений,
остающиеся постоянными или закономерно изменяющиеся , при многократных (повторных)
измерениях одной и той же величины в одних и тех же условиях. Такие погрешности
могут быть выявлены путем детального анализа возможных их источников и
уменьшены (применением более точных приборов, калибровкой приборов с помощью
рабочих мер и пр.). Однако полностью их устранить нельзя.

По
характеру изменения во времени систематические погрешности подразделяются на
постоянные (сохраняющие величину и
знак),
прогресси­рующие (возрастающие или убывающие во времени), периодические, а также изменяющиеся во
времени по сложному непериодическому закону. Основ­ные из этих погрешностей —
прогрессирующие.

Прогрессирующая (дрейфовая) погрешность — это непредсказуемая по­грешность,
медленно меняющаяся во времени. Прогрессирующие погрешно­сти характеризуются
следующими особенностями:

        
возможна
их коррекция поправками только в данный момент времени, а далее эти погрешности
вновь непредсказуемо изменяются;

          
изменения
прогрессирующих погрешностей во времени представляют со­бой нестационарный
случайный процесс (характеристики которого изменяются во времени), и поэтому в
рамках достаточно полно разработанной теории стационарных случайных процессов
они могут быть описаны лишь с некоторыми ограничениями.

Случайные погрешности 
— составляющие погрешности измерений, изменяющиеся случайным образом при
повторных (многократных) измере­ниях одной и той же величины в одних и тех же
условиях. В появлении таких погрешностей нет каких-либо закономерностей, они
проявляются при повторных измерениях одной и той же величины в виде некоторого
разброса получаемых результатов. Практически случайные погрешности неизбежны,
неустранимы и всегда имеют место в результатах измерений. Описание случайных
погрешностей возможно только на основе теории случайных процессов и
математической статистики. В отличие от систематических случайные погрешности
нельзя исклю­чить из результатов измерений путем введения поправки, однако их
можно существенно уменьшить путем многократного измерения этой величины и
последующей статистической обработкой полученных результатов.

Грубые погрешности (промахи) —
погрешности, существенно превы­шающие ожидаемые при данных условиях измерения.
Такие погрешности возникают из-за ошибок оператора или неучтенных внешних
воздействий. Их выявляют при обработке результатов измерений и исключают из рас­смотрения,
пользуясь определенными правилами.

По причинам возникновения погрешности измерения подразделяются
на методические, инструментальные, внешние и субъективные.

Методические
погрешности
возникают обычно из-за
несовершенства метода измерений, использования неверных теоретических
предпосылок (допущений) при измерениях, а также из-за влияния выбранного
средства изме­рения на измеряемые физические величины. При подключении
электроизме­рительного прибора от источника сигнала потребляется некоторая
мощность. Это приводит к искажению режима работы источника сигнала и вызывает
погрешность метода измерения (методическую погрешность).

Так,
например, если вольтметр обладает недостаточно высоким входным сопротивлением,
то его подключение к исследуемой схеме способно из­менить в ней распределение
токов и напряжений. При этом результат изме­рения может существенно отличаться
от действительного. Для расчета мето­дической погрешности при измерении токов и
напряжений необходимо знать внутренние сопротивления амперметров
RA
и вольтметров
Rv. Методическую
погрешность можно уменьшить путем применения бо­лее точного метода измерения.

Инструментальные
(аппаратурные, приборные) погрешности

возни­кают из-за несовершенства средств измерения» т.е. из-за погрешностей
средств измерений. Источниками инструментальных погрешностей могут быть,
например, неточная градуировка прибора и смещение нуля, вариация показаний
прибора в процессе эксплуатации и т.д. Уменьшают инструмен­тальные погрешности
применением более точного прибора.

Внешняя
погрешность —
важная составляющая погрешности
измере­ния,
связанная с отклонением одной или
нескольких влияющих величин от нормальных значений или выходом их за пределы нормальной области (на­пример,
влияние влажности, температуры
, внешних электрических и
магнит­ных полей, нестабильности источников питания, механических воздействий и
т.д.). В большинстве случаев внешние погрешности являются систематиче­скими и
определяются дополнительными погрешностями применяемых средств измерений. .

Субъективные
погрешности
вызываются ошибками оператора при от­счете
показаний средств измерения (погрешности от небрежности и невни­мания
оператора, от параллакса, т.е. от неправильного направления взгляда при отсчете
показаний стрелочного прибора и пр.). Подобные погрешности устраняются
применением современных цифровых приборов или автомати­ческих методов
измерения.

По характеру поведения измеряемой физической величины в процессе
измерений различают статические и динамические погрешности.

Статические
погрешности
возникают при измерении
установившего­ся значения измеряемой величины, т.е. когда эта величина
перестает изме­няться во времени.

Динамические
погрешности
имеют место при динамических
измерени­ях, когда измеряемая
величина
изменяется во времени и требуется установить закон ее изменения. Причина
появления динамических погрешностей состо­ит в несоответствии скоростных
(временных) характеристик прибора и ско­рости изменения измеряемой величины.

Средства измерений
могут применяться в нормальных и рабочих усло­виях.

Эти
 условия для
конкретных видов СИ (средств  измерения) установлены в
стандартах или технических условиях.

Нормальным
 условиям
применения средств измерений должен
удовлетворять ряд следующих (основных) требований:

температура
окружающего воздуха (20±5) °С;  

относительная
влажность (65±15) %;  

атмосферное
давле­ние (100±4) кПа;  

напряжение
питающей сети (220±4) В и (115±2,5) В;  

частота
сети (50±1) Гц и (400±12) Гц.

Как
следует из перечисленных требований, нормальные условия применения СИ
характеризуются диапазоном значений влияющих на них величин типа климатических
факторов и параметров элек­тропитания.

Рабочие
условия
применения СИ определяются диапазоном
значений влияющих величин не только климатического характера и параметров
электропитания, но и типа механических воздействий. В частности, диапазон климатических
воздействий делится на ряд групп, охватывающих широкий диапазон изменения
окружающей температуры.

Понравилась статья? Поделить с друзьями:
  • Как можно исправить эту ошибку
  • Как можно исправить свои ошибки
  • Как исправить системную ошибку logonui exe
  • Как исправить системную ошибку d3dcompiler 43 dll
  • Как исправить системную ошибку 0xc000007b