Относительная ошибка измерения это

2.1. Погрешности измерений, их классификация

Истинное значение
физической величины

– значение физической величины, которое
идеальным образом отражало бы в
количественном и качественном отношениях
соответствующее свойство объекта.

Результат любого
измерения отличается от истинного
значения физической величины на некоторое
значение, зависящее от точности средств
и методов измерения, квалификации
оператора, условий, в которых проводилось
измерение, и т. д. Отклонение результата
измерения от истинного значения
физической величины называется
погрешностью
измерения
.

Поскольку определить
истинное значение физической величины
в принципе невозможно, так как это
потребовало бы применения идеально
точного средства измерений, то на
практике вместо понятия истинного
значения физической величины применяют
понятие действительного
значения измеряемой величины
,
которое настолько точно приближается
к истинному значению, что может быть
использовано вместо него. Это может
быть, например, результат измерения
физической величины образцовым средством
измерения.

Абсолютная
погрешность измерения

(Δ) – это разность между результатом
измерения х
и действительным (истинным) значением
физической величины хи:

Δ
= х
х
и.
(2.1)

Относительная
погрешность измерения

(δ) – это отношение абсолютной погрешности
к действительному (истинному) значению
измеряемой величины (часто выраженное
в процентах):

δ
= (Δ / хи)·100 %
(2.2)

Приведенная
погрешность
(γ)
– это выраженное в процентах отношение
абсолютной погрешности к нормирующему
значению
ХN
– условно принятому значению физической
величины, постоянному во всем диапазоне
измерений:

γ =
(Δ /ХN)·100 %
(2.3)

Для приборов с
нулевой отметкой на краю шкалы нормирующее
значение ХN
равно конечному значению диапазона
измерений. Для приборов с двухсторонней
шкалой, т. е. с отметками шкалы,
расположенными по обе стороны от нуля
значение ХN
равно арифметической сумме модулей
конечных значений диапазона измерения.

Погрешность
измерения (результирующая
погрешность
)
является суммой двух составляющих:
систематической

и случайной
погрешностей.

Систематическая
погрешность

– это составляющая погрешности измерения,
остающаяся постоянной или закономерно
изменяющаяся при повторных измерениях
одной и той же величины. Причинами
появления систематической погрешности
могут являться неисправности средств
измерений, несовершенство метода
измерений, неправильная установка
измерительных приборов, отступление
от нормальных условий их работы,
особенности самого оператора.
Систематические погрешности в принципе
могут быть выявлены и устранены. Для
этого требуется проведение тщательного
анализа возможных источников погрешностей
в каждом конкретном случае.

Систематические
погрешности подразделяются на:

  • методические;

  • инструментальные;

  • субъективные.

Методические
погрешности

происходят от несовершенства метода
измерения, использования упрощающих
предположений и допущений при выводе
применяемых формул, влияния измерительного
прибора на объект измерения. Например,
измерение температуры с помощью термопары
может содержать методическую погрешность,
вызванную нарушением температурного
режима объекта измерения вследствие
внесения термопары.

Инструментальные
погрешности

зависят от погрешностей применяемых
средств измерения. Неточность градуировки,
конструктивные несовершенства, изменения
характеристик прибора в процессе
эксплуатации и т. д. являются причинами
основных погрешностей инструмента
измерения.

Субъективные
погрешности

вызываются неправильными отсчетами
показаний прибора человеком (оператором).
Например, погрешность от параллакса,
вызванная неправильным направлением
взгляда при наблюдении за показаниями
стрелочного прибора. Использование
цифровых приборов и автоматических
методов измерения позволяет исключить
такого рода погрешности.

Во многих случаях
систематическую погрешность в целом
можно представить как сумму двух
составляющих: аддитивной
(а)
и
мультипликативной
(м).

Если реальная
характеристика средства измерения
смещена относительно номинальной так,
что при всех значениях преобразуемой
величины Х
выходная величина Y
оказывается больше (или меньше) на одну
и ту же величину Δ, то такая погрешность
называется аддитивной
погрешностью нуля
(рис.
2.1).

Мультипликативная
погрешность

– это погрешность чувствительности
средства измерения.

Такой подход
позволяет легко скомпенсировать влияние
систематической погрешности на результат
измерения путем введения раздельных
поправочных коэффициентов для каждой
из этих двух составляющих.

Рис.
2.1. К пояснению понятий аддитивной

и
мультипликативной погрешностей

Случайная
погрешность
(с)
– это составляющая погрешности измерения,
изменяющаяся случайным образом при
повторных измерениях одной и той же
величины. Наличие случайных погрешностей
выявляется при проведении ряда измерений
постоянной физической величины, когда
оказывается, что результаты измерений
не совпадают друг с другом. Часто
случайные погрешности возникают из-за
одновременного действия многих
независимых причин, каждая из которых
в отдельности слабо влияет на результат
измерения.

Во многих случаях
влияние случайных погрешностей можно
уменьшить путем выполнения многократных
измерений с последующей статистической
обработкой полученных результатов.

В некоторых случаях
оказывается, что результат одного
измерения резко отличается от результатов
других измерений, выполненных при тех
же контролируемых условиях. В этом
случае говорят о грубой погрешности
(промахе измерения). Причиной могут
послужить ошибка оператора, возникновение
сильной кратковременной помехи, толчок,
нарушение электрического контакта и
т. д. Такой результат, содержащий
грубую
погрешность

необходимо выявить, исключить и не
учитывать при дальнейшей статистической
обработке результатов измерений.

Причины
возникновения погрешностей измерений

Имеется ряд
слагаемых погрешностей, которые являются
доминирующими в общей погрешности
измерений. К ним относятся:

  1. Погрешности,
    зависящие от средств измерений
    .
    Нормируемую допустимую погрешность
    средства измерения следует рассматривать
    как погрешность измерения при одном
    из возможных вариантов использования
    этого средства
    измерения.

  2. Погрешности,
    зависящие от установочных мер.

    Установочные меры могут быть универсальными
    (концевые меры) и специальными
    (изготовленными по виду измеряемой
    детали). Погрешность измерения будет
    меньшее, если установочная мера будет
    максимально подобна измеряемой детали
    о конструкции, массе, материалу, его
    физическим свойствам, способу базирования
    и т. д. Погрешности от концевых мер длины
    возникают из-за погрешности изготовления
    или погрешности аттестации, а также
    из-за погрешности их притирки.

  3. Погрешности,
    зависящие от измерительного усилия
    .
    При оценке влияния измерительного
    усилия на погрешность измерения
    необходимо выделить упругие деформации
    установочного узла и деформации в зоне
    контакта измерительного наконечника
    с деталью.

  4. Погрешности,
    происходящие от температурных деформаций
    .
    Погрешности возникают из-за разности
    температур объекта измерения и
    измерительного средства. Существует
    два основных источника, обуславливающих
    погрешность от температурных деформаций:
    отклонение температуры воздуха от
    20 °С и кратковременные колебания
    температуры воздуха в процессе измерения.

  5. Погрешности,
    зависящие от оператора

    (субъективные погрешности). Возможны
    четыре вида субъективных погрешностей:

  • погрешность
    отсчитывания

    (особенно важна, когда обеспечивается
    погрешность измерения, не превышающая
    цену деления);

  • погрешность
    присутствия

    (проявляется в виде влияния теплоизлучения
    оператора на температуру окружающей
    среды, а тем самым и на измерительное
    средство);

  • погрешность
    действия

    (вносится оператором при настройке
    прибора);

  • профессиональные
    погрешности

    (связаны с квалификацией оператора, с
    отношением его к процессу измерения).

  1. Погрешности при
    отклонениях от правильной геометрической
    формы
    .

  2. Дополнительные
    погрешности при измерении внутренних
    размеров
    .

При характеристике
погрешностей средств измерений часто
пользуются

понятием
предела допускаемой погрешности средств
измерений.

Предел допускаемой
погрешности средства измерений

– это наибольшая, без учета знака,
погрешность средства измерений, при
котором оно может быть признано и
допущено к применению. Определение
применимо к основной и дополнительной
погрешности средств измерений.

Учет всех нормируемых
метрологических характеристик средств
измерений является сложной и трудоемкой
процедурой. На практике такая точность
не нужна. Поэтому для средств измерений,
используемых в повседневной практике,
принято деление на классы
точности
,
которые дают их обобщенную метрологическую
характеристику.

Требования к
метрологическим характеристикам
устанавливаются в стандартах на средства
измерений конкретного типа.

Классы точности
присваиваются средствам измерений с
учетом результатов государственных
приемочных испытаний.

Класс точности
средства измерений

– обобщенная характеристика средства
измерений, определяемая пределами
допускаемых основных и дополнительных
погрешностей. Класс точности может
выражаться одним числом или дробью
(если аддитивная и мультипликативная
погрешности сопоставимы – например,
0,2/0,05 – адд./мульт.).

Обозначения классов
точности наносятся на циферблаты, щитки
и корпуса средств измерений, приводятся
в нормативно-технических документах.
Классы точности могут обозначаться
буквами (например, М, С и т. д.) или
римскими цифрами (I,
II,
III
и т. д.). Обозначение классов точности
по ГОСТу 8.401-80 может сопровождаться
дополнительными условными знаками:

  • 0,5;
    1,6; 2,5 и т. д. – для приборов, приведенная
    погрешность которых составляет 0,5; 1,6;
    2,5 % от нормирующего значения XN.
    При этом XN
    принимается равным большему из модулей
    пределов измерений, если нулевое
    значение входного (выходного) сигнала
    находится на краю или вне диапазона
    измерений;

  • 0,1,
    0,4, 1,0 и т. д. – для приборов, у которых
    относительная
    погрешность
    составляет 0,1; 0,4; 1,0 % непосредственно
    от полученного значения измеряемой
    величины x;

  • 0,02/0,01 – для
    приборов, у которых измеряемая величина
    не может отличаться от значения x,
    показанного указателем, больше, чем на
    [С+d(|XN/x|-1)]%,
    где C
    и d
    – числитель и знаменатель соответственно
    в обозначении класса точности; XN
    – больший
    (по модулю) из пределов измерений
    прибора.

Примеры обозначения
классов точности приведены на рис. 2.2.

Рис.
2.2. Лицевые панели приборов:

а
– вольтметра
класса точности 0,5; б
– амперметра
класса точности 1,5;

в
– амперметра
класса точности 0,02/0,01;

г
– мегомметра класса точности 2,5 с
неравномерной шкалой

Метрологическая
надежность средств измерения

В процессе
эксплуатации любого средства измерения
может возникнуть неисправность или
поломка, называемые отказом.

Метрологическая
надежность

средств
измерения

– это свойство средств измерений
сохранять установленные значения
метрологических характеристик в течение
определенного времени при нормальных
режимах и рабочих условиях эксплуатации.
Она характеризуется интенсивностью
отказов, вероятностью безотказной
работы и наработкой на отказ.

Интенсивность
отказов

определяется выражением:

,
(2.1)

где
L
– число отказов; N
– число однотипных элементов; ∆t
– промежуток времени.

Для средств
измерения, состоящего из
n
типов элементов, интенсивность
отказов

рассчитывается как

(2.2)

где
mi

количество элементов i-го
типа.

Вероятность
безотказной работы
:

(2.3)

Наработка на
отказ
:

(2.4)

Для внезапного
отказа, интенсивность отказов которого
не зависит от времени работы средства
измерения:

(2.5)

Межповерочный
интервал
, в
течение которого обеспечивается заданная
вероятность безотказной работы,
определяется по формуле:

,
(2.6)

где
Pмо
– вероятность метрологического отказа
за время между поверками; P(t)
– вероятность безотказной работы.

В процессе
эксплуатации может производиться
корректировка межповерочного интервала.

Поверка средств
измерения

В основе обеспечения
единообразия средств измерений лежит
система передачи размера единицы
измеряемой величины. Технической формой
надзора за единообразием средств
измерений является государственная
(ведомственная) поверка средств измерений
,
устанавливающая их метрологическую
исправность.

Поверка
– определение метрологическим органом
погрешностей средства измерений и
установление его пригодности к применению.

Пригодным к
применению в течение определенного
межповерочного
интервала

времени признают те СИ, поверка которых
подтверждает их соответствие
метрологическим и техническим требованиям
к данному СИ.

Средства измерений
подвергают первичной, периодической,
внеочередной, инспекционной и экспертной
поверкам.

Первичной поверке
подвергаются
СИ при выпуске из производства или
ремонта, а также СИ, поступающие по
импорту.

Периодической
поверке
подлежат
СИ, находящиеся в эксплуатации или на
хранении через определенные межповерочные
интервалы, установленные с расчетом
обеспечения пригодности к применению
СИ на период между поверками.

Инспекционную
поверку
производят
для выявления пригодности к применению
СИ при осуществлении госнадзора и
ведомственного метрологического
контроля за состоянием и применением
СИ.

Экспертную
поверку
выполняют
при возникновении спорных вопросов по
метрологическим характеристикам (MX),
исправности СИ и пригодности их к
применению.

Достоверная
передача размера единиц во всех звеньях
метрологической цепи от эталонов или
от исходного образцового средства
измерений к рабочим средствам измерений
производится в определенном порядке,
приведенном в поверочных схемах.

Поверочная схема
– это утвержденный в установленном
порядке документ, регламентирующий
средства, методы и точность передачи
размера единицы физической величины
от государственного эталона или исходного
образцового средства измерений рабочим
средствам.

Различают
государственные, ведомственные и
локальные поверочные схемы органов
государственной или ведомственных
метрологических служб.

Государственная
поверочная схема

распространяется на все средства
измерений данной ФВ, имеющиеся в стране.
Устанавливая многоступенчатый порядок
передачи размера единицы ФВ от
государственного эталона, требования
к средствам и методам поверки,
государственная поверочная схема
представляет собой структуру
метрологического обеспечения определённого
вида измерений в стране. Эти схемы
разрабатываются главными центрами
эталонов и оформляются одним ГОСТом
ГСИ.

Локальные
поверочные схемы

распространяются на средства измерений,
подлежащие поверке в данном метрологическом
подразделении на предприятии, имеющем
право поверки средств измерений, и
оформляются в виде стандарта предприятия.
Ведомственные и локальные поверочные
схемы не должны противоречить
государственным и должны учитывать их
требования применительно к специфике
конкретного предприятия.

Ведомственная
поверочная схема

разрабатывается органом ведомственной
метрологической службы, согласовывается
с главным центром эталонов – разработчиком
государственной поверочной схемы
средств измерений данной ФВ и
распространяется только на средства
измерений, подлежащие внутриведомственной
поверке.

Поверочная схема
устанавливает передачу размера единиц
одной или нескольких взаимосвязанных
величин. Она должна включать не менее
двух ступеней передачи размера. Поверочную
схему для СИ одной и той же величины,
существенно отличающихся по диапазонам
измерений, условиям применения и методам
поверки, а также для СИ нескольких ФВ
допускается подразделять на части. На
чертежах поверочной схемы должны быть
указаны:

  • наименования СИ
    и методов поверки;

  • номинальные
    значения ФВ или их диапазоны;

  • допускаемые
    значения погрешностей СИ;

  • допускаемые
    значения погрешностей методов поверки.
    Правила расчета параметров поверочных
    схем и оформления чертежей поверочных
    схем приведены в ГОСТ 8.061-80 «ГСИ.
    Поверочные схемы. Содержание и построение»
    и в рекомендациях МИ 83-76 «Методика
    определения параметров поверочных
    схем».

Калибровка
средств измерения

Калибровка
средства измерений

– это
совокупность операций, выполняемых
калибровочной лабораторией с целью
определения и подтверждения действительных
значений метрологических характеристик
и (или) пригодности средства измерений
к применению в сферах, не подлежащих
государственному метрологическому
контролю и надзору в соответствии с
установленными требованиями.

Результаты
калибровки средств измерений удостоверяются
калибровочным
знаком
,
наносимым на средства измерений, или
сертификатом
о калибровке,

а также записью
в эксплуатационных документах
.

Поверку (обязательная
госповерка) может выполнять, как правило,
орган государственной метрологической
службы, а калибровку –
любая
аккредитованная и неаккредитованная
организация.

Поверка обязательна
для средств измерений, применяемых в
сферах, подлежащих государственному
метрологическому контролю (ГМК),
калибровка же –
процедура
добровольная, поскольку относится к
средствам измерений, не подлежащим ГМК.
Предприятие вправе самостоятельно
решать вопрос о выборе форм и режимов
контроля состояния средств измерений,
за исключением тех областей применения
средств измерений, за которыми государства
всего мира устанавливают свой контроль
– это
здравоохранение, безопасность труда,
экология и др.

Освободившись от
государственного контроля, предприятия
попадают под не менее жёсткий контроль
рынка. Это означает, что свобода выбора
предприятия по «метрологическому
поведению» является относительной, все
равно необходимо соблюдать метрологические
правила.

В развитых странах
устанавливает и контролирует исполнение
этих правил негосударственная организация,
именуемая «национальной калибровочной
службой». Эта служба берёт на себя
функции регулирования и разрешения
вопросов, связанных со средствами
измерений, не подпадающими под контроль
государственных метрологических служб.

Желание иметь
конкурентоспособную продукцию побуждает
предприятия иметь измерительные
средства, дающие достоверные результаты.

Внедрение системы
сертификации продукции дополнительно
стимулирует поддержание измерительных
средств на соответствующем уровне. Это
согласуется с требованиями систем
качества, регламентируемыми стандартами
ИСО серии 9000.

Построение
Российской системы калибровки (РСК)
основывается на следующих принципах:

  • добровольность
    вступления;

  • обязательность
    получения размеров единиц от
    государственных эталонов;

  • профессионализм
    и компетентность персонала;

  • самоокупаемость
    и самофинансирование.

Основное звено
РСК –
калибровочная
лаборатория. Она представляет собой
самостоятельное предприятие или
подразделение в составе метрологической
службы предприятия, которое может
осуществлять калибровку средств
измерений для собственных нужд или для
сторонних организаций. Если калибровка
проводится для сторонних организаций,
то калибровочная лаборатория должна
быть аккредитована органом РСК.
Аккредитацию осуществляют государственные
научные метрологические центры или
органы Государственной метрологической
службы в соответствии со своей компетенцией
и требованиями, установленными в ГОСТе
51000.2-95 «Общие требования к аккредитующему
органу».

Порядок аккредитации
метрологической службы утвержден
постановлением Госстандарта РФ от 28
декабря 1995 г. № 95 «Порядок аккредитации
метрологических служб юридических лиц
на право проведения калибровочных
работ».

Методы поверки
(калибровки) средств измерения

Допускается
применение четырех методов
поверки
(калибровки) средств измерений:

  • непосредственное
    сличение с эталоном;

  • сличение с помощью
    компаратора;

  • прямые измерения
    величины;

  • косвенные измерения
    величины.

Метод
непосредственного сличения

поверяемого (калибруемого) средства
измерения с эталоном соответствующего
разряда широко применяется для различных
средств измерений в таких областях, как
электрические и магнитные измерения,
для определения напряжения, частоты и
силы тока. В основе метода лежит проведение
одновременных измерений одной и той же
физической величины поверяемым
(калибруемым) и эталонным приборами.
При этом определяют погрешность как
разницу показаний поверяемого и
эталонного средств измерений, принимая
показания эталона за действительное
значение величины. Достоинства этого
метода в его простоте, наглядности,
возможности применения автоматической
поверки (калибровки), отсутствии
потребности в сложном оборудовании.

Метод сличения
с помощью компаратора

основан на использовании прибора
сравнения, с помощью которого сличаются
поверяемое (калибруемое) и эталонное
средства измерения. Потребность в
компараторе возникает при невозможности
сравнения показаний приборов, измеряющих
одну и ту же величину, например, двух
вольтметров, один из которых пригоден
для постоянного тока, а другой –
переменного.
В подобных ситуациях в схему поверки
(калибровки) вводится промежуточное
звено –
компаратор.
Для приведенного примера потребуется
потенциометр, который и будет компаратором.
На практике компаратором может служить
любое средство измерения, если оно
одинаково реагирует на сигналы как
поверяемого (калибруемого), так и
эталонного измерительного прибора.
Достоинством данного метода специалисты
считают последовательное во времени
сравнение двух величин.

Метод прямых
измерений

применяется, когда имеется возможность
сличить испытуемый прибор с эталонным
в определенных пределах измерений. В
целом этот метод аналогичен методу
непосредственного сличения, но методом
прямых измерений производится сличение
на всех числовых отметках каждого
диапазона (и поддиапазонов, если они
имеются в приборе). Метод прямых измерений
применяют, например, для поверки или
калибровки вольтметров постоянного
электрического тока.

Метод косвенных
измерений

используется, когда действительные
значения измеряемых величин невозможно
определить прямыми измерениями либо
когда косвенные измерения оказываются
более точными, чем прямые. Этим методом
определяют вначале не искомую
характеристику, а другие, связанные с
ней определенной зависимостью. Искомая
характеристика определяется расчетным
путем. Например, при поверке (калибровке)
вольтметра постоянного тока эталонным
амперметром устанавливают силу тока,
одновременно измеряя сопротивление.
Расчетное значение напряжения сравнивают
с показателями калибруемого (поверяемого)
вольтметра. Метод косвенных измерений
обычно применяют в установках
автоматизированной поверки (калибровки).

Напечатано:: Гость
Дата: понедельник, 5 июня 2023, 09:56

Описание

1. Понятие о погрешности измерения.

2. Классификация погрешностей измерения.

3. Систематические погрешности

Оглавление

  • 1. Понятие о погрешности измерения
  • 2. Классификация погрешностей измерения
  • 3. Систематические погрешности

1. Понятие о погрешности измерения

Всякий процесс измерения независимо от условий, в которых его про­водят, сопряжен с погрешностями, которые искажают представление о действительном значении измеряемой величины.

Погрешностью называют отличие между объективно существующим истинным значением физической величины и найденным в результате измерения действительным значением физической величины.

Истинное значение физической величины идеальным образом отражает соответствующее свойство объекта. Практически получено быть не может.

Действительное значение физической величины находится как результат измерения и приближается к истинному значению настолько, что для данной цели может применяться вместо него.

Источниками появления погрешностей при измерениях могут служить различные факторы, основными из которых являются: несовершенство конструкции средств измерений или принципиальной схемы метода измерения; неточность изготовления средств измерений; несоблюдение внешних условий при измерениях; субъективные погрешности и др.

2. Классификация погрешностей измерения

В зависимости от обстоятельств, при которых проводились измерения, а также в зависимости от целей измерения, выбирается та или иная классификация погрешностей. Иногда используют одновременно несколько взаимно пересекающихся классификаций, желая по нескольким признакам точно охарактеризовать влияющие на результат измерения физические величины. В таком случае рассматривают, например, инструментальную составляющую неисключённой систематической погрешности. При выборе классификаций важно учитывать наиболее весомые или динамично меняющиеся или поддающиеся регулировке влияющие величины. Ниже приведены общепринятые классификации согласно типовым признакам и влияющим величинам.

По виду представления, различают абсолютную, относительную и приведённую погрешности.

Абсолютная погрешность это разница между результатом измерения X и истинным значением Q измеряемой величины. Абсолютная погрешность находится как D = X — Q и выражается в единицах измеряемой величины.

Относительная погрешность это отношение абсолютной погрешности измерения к истинному значению измеряемой величины: d = D / Q = (X – Q) / Q .

Приведённая погрешность это относительная погрешность, в которой абсолютная погрешность средства измерения отнесена к условно принятому нормирующему значению QN , постоянному во всём диапазоне измерений или его части. Относительная и приведённая погрешности – безразмерные величины.

В зависимости от источника возникновения, различают субъективную, инструментальную и методическую погрешности.

Субъективная погрешность обусловлена погрешностью отсчёта оператором показаний средства измерения.

Инструментальная погрешность обусловлена несовершенством применяемого средства измерения. Иногда эту погрешность называют аппаратурной. Метрологические характеристики средств измерений нормируются согласно ГОСТ 8.009 – 84, при этом различают четыре составляющие инструментальной погрешности: основная, дополнительная, динамическая, интегральная. Согласно этой классификации, инструментальная погрешность зависит от условий и режима работы, а также от параметров сигнала и объекта измерения.

Методическая погрешность обусловлена следующими основными причинами:

– отличие принятой модели объекта измерения от модели, адекватно описывающей его метрологические свойства;

– влияние средства измерения на объект измерения;

– неточность применяемых при вычислениях физических констант и математических соотношений.

В зависимости от измеряемой величины, различают погрешность аддитивную и мультипликативную. Аддитивная погрешность не зависит от измеряемой величины. Мультипликативная погрешность меняется пропорционально измеряемой величине.

В зависимости от режима работы средства измерений, различают статическую и динамическую погрешности.

Динамическая погрешность обусловлена реакцией средства измерения на изменение параметров измеряемого сигнала (динамический режим).

Статическая погрешность средства измерения определяется при параметрах измеряемого сигнала, принимаемых за неизменные на протяжении времени измерения (статический режим).

По характеру проявления во времени, различают случайную и систематическую погрешности.

Систематической погрешностью измерения называют погрешность, которая при повторных измерениях одной и той же величины в одних и тех же условиях остаётся постоянной или закономерно меняется.

Случайной погрешностью измерения называют погрешность, которая при повторных измерениях одной и той же величины в одних и тех же условиях изменяется случайным образом.

3. Систематические погрешности

Систематические погрешности при повторных измерениях остаются постоянными или изменяются по определенному закону.

Когда судят о погрешности, подразумевают не значение, а интервал значений, в котором с заданной вероятностью находится истинное значение. Поэтому говорят об оценке погрешности. Если бы погрешность оказалась измеренной, т.е. стали бы известны её знак и значение, то её можно было бы исключить из действительного значения измеряемой физической величины и получить истинное значение.

Для получения результатов, минимально отличающихся от истинного значения измеряемой физической величины, проводят многократные наблюдения и проводят математическую обработку полученного массива с целью определения и минимизации случайной составляющей погрешности.

Минимизация систематической погрешности в процессе наблюдений выполняется следующими методами: метод замещения (состоит в замещении измеряемой величины мерой), метод противопоставления (состоит в двух поочерёдных измерениях при замене местами меры и измеряемого объекта), метод компенсации погрешности по знаку (состоит в двух поочерёдных измерениях, при которых влияющая величина становится противоположной).

При многократных наблюдениях возможно апостериорное (после выполнения наблюдений) исключение систематической погрешности в результате анализа рядов наблюдений. Рассмотрим графический анализ. При этом результаты последовательных наблюдений представляются функцией времени либо ранжируются в порядке возрастания погрешности.

Рассмотрим временную зависимость. Будем проводить наблюдения через одинаковые интервалы времени. Результаты последовательных наблюдений являются случайной функцией времени. В серии экспериментов, состоящих из ряда последовательных наблюдений, получаем одну реализацию этой функции. При повторении серии получаем новую реализацию, отличающуюся от первой.

Реализации отличаются преимущественно из-за влияния факторов, определяющих случайную погрешность, а факторы, определяющие систематическую погрешность, одинаково проявляются для соответствующих моментов времени в каждой реализации. Значение, соответствующее каждому моменту времени, называется сечением случайной функции времени. Для каждого сечения можно найти среднее по всем реализациям значение. Очевидно, что эта составляющая и определяет систематическую погрешность. Если через значения систематической погрешности для всех моментов времени провести плавную кривую, то она будет характеризовать временную закономерность изменения погрешности. Зная закономерность изменения, можем определить поправку для исключения систематической погрешности. После исключения систематической погрешности получаем «исправленный ряд результатов наблюдений».

Известен ряд способов исключения систематических погрешностей, которые условно можно разделить па 4 основные группы:

  •  устранение источников погрешностей до начала измерений;
  •  исключение почетностей в процессе измерения способами замещения, компенсации погрешностей по знаку, противопоставления, симметричных наблюдений;
  •  внесение известных поправок в результат измерения (исключение погрешностей начислением);
  •  оценка границ систематических погрешностей, если их нельзя ис­ключить.

По характеру проявления систематические погрешности подразделяют на постоянные, прогрессивные и периодические.

Постоянные систематические погрешности сохраняют свое значение в течение всего времени измерений (например, погрешность в градуировке шкалы прибора переносится на все результаты измерений).

Прогрессивные погрешности – погрешности, которые в процессе из­мерении подрастают или убывают (например, погрешности, возникающие вследствие износа контактирующих деталей средств измерения).

И группу систематических погрешностей можно отнести: инструментальные погрешности; погрешности из-за неправильной установки измерительного устройства; погрешности, возникающие вследствие внешних влияний; погрешности метода измерения (теоретические погрешности); субъективные погрешности.

Абсолютная и относительная погрешность


Абсолютная и относительная погрешность

4.2

Средняя оценка: 4.2

Всего получено оценок: 2201.

4.2

Средняя оценка: 4.2

Всего получено оценок: 2201.

Абсолютную и относительную погрешность используют для оценки неточности в производимых расчетах с высокой сложностью. Также они используются в различных измерениях и для округления результатов вычислений. Рассмотрим, как определить абсолютную и относительную погрешность.

Опыт работы учителем математики — более 33 лет.

Абсолютная погрешность

Абсолютной погрешностью числа называют разницу между этим числом и его точным значением.
Рассмотрим пример: в школе учится 374 ученика. Если округлить это число до 400, то абсолютная погрешность измерения равна 400-374=26.

Для подсчета абсолютной погрешности необходимо из большего числа вычитать меньшее.

Существует формула абсолютной погрешности. Обозначим точное число буквой А, а буквой а – приближение к точному числу. Приближенное число – это число, которое незначительно отличается от точного и обычно заменяет его в вычислениях. Тогда формула будет выглядеть следующим образом:

Δа=А-а. Как найти абсолютную погрешность по формуле, мы рассмотрели выше.

На практике абсолютной погрешности недостаточно для точной оценки измерения. Редко когда можно точно знать значение измеряемой величины, чтобы рассчитать абсолютную погрешность. Измеряя книгу в 20 см длиной и допустив погрешность в 1 см, можно считать измерение с большой ошибкой. Но если погрешность в 1 см была допущена при измерении стены в 20 метров, это измерение можно считать максимально точным. Поэтому в практике более важное значение имеет определение относительной погрешности измерения.

Записывают абсолютную погрешность числа, используя знак ±. Например, длина рулона обоев составляет 30 м ± 3 см. Границу абсолютной погрешности называют предельной абсолютной погрешностью.

Относительная погрешность

Относительной погрешностью называют отношение абсолютной погрешности числа к самому этому числу. Чтобы рассчитать относительную погрешность в примере с учениками, разделим 26 на 374.

Получим число 0,0695, переведем в проценты и получим 7 %. Относительную погрешность обозначают процентами, потому что это безразмерная величина. Относительная погрешность – это точная оценка ошибки измерений. Если взять абсолютную погрешность в 1 см при измерении длины отрезков 10 см и 10 м, то относительные погрешности будут соответственно равны 10 % и 0,1 %. Для отрезка длиной в 10 см погрешность в 1 см очень велика, это ошибка в 10 %. А для десятиметрового отрезка 1 см не имеет значения, всего 0,1 %.

Различают систематические и случайные погрешности. Систематической называют ту погрешность, которая остается неизменной при повторных измерениях. Случайная погрешность возникает в результате воздействия на процесс измерения внешних факторов и может изменять свое значение.

Правила подсчета погрешностей

Для номинальной оценки погрешностей существует несколько правил:

  • при сложении и вычитании чисел необходимо складывать их абсолютные погрешности;
  • при делении и умножении чисел требуется сложить относительные погрешности;
  • при возведении в степень относительную погрешность умножают на показатель степени.

Приближенные и точные числа записываются при помощи десятичных дробей. Берется только среднее значение, поскольку точное может быть бесконечно длинным. Чтобы понять, как записывать эти числа, необходимо узнать о верных и сомнительных цифрах.

Верными называются такие цифры, разряд которых превосходит абсолютную погрешность числа. Если же разряд цифры меньше абсолютной погрешности, она называется сомнительной. Например, для дроби 3,6714 с погрешностью 0,002 верными будут цифры 3,6,7, а сомнительными – 1 и 4. В записи приближенного числа оставляют только верные цифры. Дробь в этом случае будет выглядеть таким образом – 3,67.

Заключение

Что мы узнали?

Абсолютные и относительные погрешности используются для оценки точности измерений. Абсолютной погрешностью называют разницу между точным и приближенным числом. Относительная погрешность – это отношение абсолютной погрешности числа к самому числу. На практике используют относительную погрешность, так как она является более точной.

Тест по теме

Доска почёта

Доска почёта

Чтобы попасть сюда — пройдите тест.

  • Светлана Лобанова-Асямолова

    10/10

  • Валерий Соломин

    10/10

  • Анастасия Юшкова

    10/10

  • Ксюша Пономарева

    7/10

  • Паша Кривов

    10/10

  • Евгений Холопик

    9/10

  • Guzel Murtazina

    10/10

  • Максим Аполонов

    10/10

  • Olga Bimbirene

    9/10

  • Света Колодий

    10/10

Оценка статьи

4.2

Средняя оценка: 4.2

Всего получено оценок: 2201.


А какая ваша оценка?

Измерения. Классификация ошибок измерений

В физике и в других науках весьма часто приходится производить измерения различных величин (например, длины, массы, времени, температуры, электрического сопротивления и т. д.).

Измерение – процесс нахождения значения физической величины с помощью специальных технических средств – измерительных приборов.

Измерительным прибором называют устройство, с помощью которого осуществляется сравнение измеряемой величины с физической величиной того же рода, принятой за единицу измерения.

Различают прямые и косвенные методы измерений.

Прямые методы измерений – методы, при которых значения определяемых величин находятся непосредственным сравнением измеряемого объекта с единицей измерения (эталоном). Например, измеряемая линейкой длина какого-либо тела сравнивается с единицей длины – метром, измеряемая весами масса тела сравнивается с единицей массы – килограммом и т. д. Таким образом, в результате прямого измерения определяемая величина получается сразу, непосредственно.

Косвенные методы измерений – методы, при которых значения определяемых величин вычисляются по результатам прямых измерений других величин, с которыми они связаны известной функциональной зависимостью. Например, определение длины окружности по результатам измерения диаметра или определение объема тела по результатам измерения его линейных размеров.

Ввиду несовершенства измерительных приборов, наших органов чувств, влияния внешних воздействий на измерительную аппаратуру и объект измерения, а также прочих факторов все измерения можно производить только с известной степенью точности; поэтому результаты измерений дают не истинное значение измеряемой величины, а лишь приближенное. Если, например, вес тела определен с точностью до 0,1 мг, то это значит, что найденный вес отличается от истинного веса тела менее чем на 0,1 мг.

Точность измерений – характеристика качества измерений, отражающая близость результатов измерений к истинному значению измеряемой величины.

Чем меньше погрешности измерений, тем больше точность измерений. Точность измерений зависит от используемых при измерениях прибо- ров и от общих методов измерений. Совершенно бесполезно стремиться при измерениях в данных условиях перейти за этот предел точности. Можно свести к минимуму воздействие причин, уменьшающих точность измерений, но полностью избавиться от них невозможно, то есть при измерениях всегда совершаются более или менее значительные ошибки (погрешности). Для увеличения точности окончательного результата всякое физическое измерение необходимо делать не один, а несколько раз при одинаковых условиях опыта.

В результате i-го измерения (i – номер измерения) величины «Х”, получается приближенное число Хi, отличающееся от истинного значения Хист на некоторую величину ∆Хi = |Хi – Х|, которая является допущенной ошибкой или, другими словами, погрешностью. Истинная погрешность нам не известна, так как мы не знаем истинного значения измеряемой величины. Истинное значение измеряемой физической величины лежит в интервале

Хi – ∆Х < Хi – ∆Х < Хi + ∆Х

где Хi – значение величины Х, полученное при измерении (то есть измеренное значение); ∆Х – абсолютная погрешность определения величины Х.

Абсолютная ошибка (погрешность) измерения ∆Х – это абсолютная величина разности между истинным значением измеряемой величины Хист и результатом измерения Xi: ∆Х = |Хист – Xi|.

Относительная ошибка (погрешность) измерения δ (характеризующая точность измерения) численно равна отношению абсолютной погрешности измерения ∆Х к истинному значению измеряемой величины Хист (часто выражается в процентах): δ = (∆Х / Хист) • 100% .

Погрешности или ошибки измерений можно разделить на три класса: систематические, случайные и грубые (промахи).

Систематической называют такую погрешность, которая остается постоянной или закономерно (согласно некоторой функциональной зависимости) изменяется при повторных измерениях одной и той же величины. Такие погрешности возникают в результате конструктивных особенностей измерительных приборов, недостатков принятого метода измерений, каких-либо упущений экспериментатора, влияния внешних условий или дефекта самого объекта измерения.

В любом измерительном приборе заложена та или иная систематическая погрешность, которую невозможно устранить, но порядок которой можно учесть. Систематические погрешности либо увеличивают, либо уменьшают результаты измерения, то есть эти погрешности характеризуются постоянным знаком. Например, если при взвешивании одна из гирь имеет массу на 0,01 г большую, чем указано на ней, то найденное значение массы тела будет завышенным на эту величину, сколько бы измерений ни производилось. Иногда систематические ошибки можно учесть или устранить, иногда этого сделать нельзя. Например, к неустранимым ошибкам относятся ошибки приборов, о которых мы можем лишь сказать, что они не превышают определенной величины.

Случайными ошибками называют ошибки, которые непредсказуемым образом изменяют свою величину и знак от опыта к опыту. Появление случайных ошибок обусловлено действием многих разнообразных и неконтролируемых причин.

Например, при взвешивании весами этими причинами могут быть колебания воздуха, осевшие пылинки, разное трение в левом и правом подвесе чашек и др. Случайные ошибки проявляются в том, что, произведя измерения одной и той же величины Х в одинаковых условиях опыта, мы получаем несколько различающихся значений: Х1, Х2, Х3,…, Хi,…, Хn, где Хi – результат i-го измерения. Установить какую-либо закономерность между результатами не удается, поэтому результат i — го измерения Х считается случайной величиной. Случайные ошибки могут оказать определенное влияние на отдельное измерение, но при многократных измерениях они подчиняются статистическим законам и их влияние на результаты измерений можно учесть или значительно уменьшить.

Промахи и грубые погрешности – чрезмерно большие ошибки, явно искажающие результат измерения. Этот класс погрешностей вызван чаще всего неправильными действиями экспериментатора (например, из-за невнимательности вместо показания прибора «212» записывается совершенно другое число – «221»). Измерения, содержащие промахи и грубые погрешности, следует отбрасывать.

Измерения могут быть проведены с точки зрения их точности техническим и лабораторным методами.

При использовании технических методов измерение проводится один раз. В этом случае удовлетворяются такой точностью, при которой погрешность не превышает некоторого определенного, заранее заданного значения, определяемого погрешностью примененной измерительной аппаратурой.

При лабораторных методах измерений требуется более точно указать значение измеряемой величины, чем это допускает ее однократное измерение техническим методом. В этом случае делают несколько измерений и вычисляют среднее арифметическое полученных значений, которое принимают за наиболее достоверное (истинное) значение измеряемой величины. Затем производят оценку точности результата измерений (учет случайных погрешностей).

Из возможности проведения измерений двумя методами вытекает и существование двух методов оценки точности измерений: технического и лабораторного.




Добавил: Basilio (28.08.2010) | Категория: Механика

Просмотров: 41774 | Загрузок: 0
| Рейтинг: 5.0/3 |

Теги: эксперимент, измерение, ошибка, классификация

May 8 2015, 14:46

Абсолютные ,относительные и приведенные погрешности измерений

Абсолютная погрешность – это разница между измеренной датчиком величиной Хизм и действительным значением Хд этой величины.

1
Действительное значение Хд измеряемой величины это найденное экспериментально значение измеряемой величины максимально близкое к ее истинному значению. Говоря простым языком действительное значение Хд это значение, измеренное эталонным прибором, или сгенерированное калибратором или задатчиком высокого класса точности. Абсолютная погрешность выражается в тех же единицах измерения, что и измеряемая величина (например, в м3/ч, мА, МПа и т.п.). Так как измеренная величина может оказаться как больше, так и меньше ее действительного значения, то погрешность измерения может быть как со знаком плюс (показания прибора завышены), так и со знаком минус (прибор занижает).
См.Абсолютная погрешность микрокомпьютерного расходомера скоростемера МКРС
Относительная погрешность – это отношение абсолютной погрешности измерения Δ к действительному значению Хд измеряемой величины.

2

Относительная погрешность выражается в процентах, либо является безразмерной величиной, а также может принимать как положительные, так и отрицательные значения.
См.Относительная погрешность ультразвукового  уровнемера ЭХО-АС-01
Приведенная погрешность – это отношение абсолютной погрешности измерения Δ к нормирующему значению Хn, постоянному во всем диапазоне измерения или его части.

3
Нормирующее значение Хn зависит от типа шкалы датчика КИП:

  1. Если шкала датчика односторонняя и нижний предел измерения равен нулю (например, шкала датчика от 0 до 150 м3/ч), то Хn принимается равным верхнему пределу измерения (в нашем случае Хn = 150 м3/ч).
  2. Если шкала датчика односторонняя, но нижний предел измерения не равен нулю (например, шкала датчика от 30 до 150 м3/ч), то Хn принимается равным разности верхнего и нижнего пределов измерения (в нашем случае Хn = 150-30 = 120 м3/ч).
  3. Если шкала датчика двухсторонняя (например, от -50 до +150 ˚С), то Хn равно ширине диапазона измерения датчика (в нашем случае Хn = 50+150 = 200 ˚С).

Приведенная погрешность выражается в процентах, либо является безразмерной величиной, а также может принимать как положительные, так и отрицательные значения.

Довольно часто в описании на тот или иной датчик указывается не только диапазон измерения, например, от 0 до 50 мг/м3, но и диапазон показаний, например, от 0 до 100 мг/м3. Приведенная погрешность в этом случае нормируется к концу диапазона измерения, то есть к 50 мг/м3, а в диапазоне показаний от 50 до 100 мг/м3 погрешность измерения датчика не определена вовсе – фактически датчик может показать все что угодно и иметь любую погрешность измерения. Диапазон измерения датчика может быть разбит на несколько измерительных поддиапазонов, для каждого из которых может быть определена своя погрешность как по величине, так и по форме представления. При этом при поверке таких датчиков для каждого поддиапазона могут применяться свои образцовые средства измерения, перечень которых указан в методике поверки на данный прибор.

Понравилась статья? Поделить с друзьями:
  • Относительная ошибка измерения формула
  • Относительная ошибка измерения скорости
  • Относительная ошибка измерения расстояний нитяным дальномером
  • Относительная ошибка измерения расстояний мерной лентой или рулеткой
  • Относительная ошибка измерения как считать