Сдам Сам

ПОЛЕЗНОЕ


КАТЕГОРИИ







Описание случайных погрешностей и понятие доверительного интервала





Из математической статистики известно, что случайная величина полностью описывается законами распределения. Есть интегральный и дифференциальный законы распределения, причём дифференциальный закон используется чаще в технике.

Обозначения: P(X) – плотность распределения вероятности

Пример 1:

Пусть измеряемая величина – X

P(X)

Дифференциальный закон распределения

Q – истинной значение X

 

0 X1 Q X2 X

Вероятность попадания (1-P) Вероятность попадания (1-P)

Вероятность попадания (Р)

Пусть, хотим знать будет ли результат «сидеть» в интервале

Пример 2: используется чаще

P(δ)

Закон распределения погрешности

 

 

δ1 0 δ2 δ

На практике используют числовые параметры законов распределения или моменты.

Моменты:

1) Математическое ожидание M(X)

2) Дисперсия D(X)

 

Оценка мат. ожидания – это среднее значение измеряемой величины X при достаточно большом числе измерений n.

где n – число измерений, xi – значение случайной величины.

В качестве характеристики отклонения среднего используется дисперсия:

Из-за своей размерности (невозможно сравнить дисперсию и мат. ожидание, так как у одной размерность X2, а у другого – X) дисперсия на практике заменяется среднеквадратическим отклонением:

Таким образом получаем СКО с размерностью измеряемой величины и мат. ожидание с той же размерностью.

В измерительной технике пользуются понятием доверительного интервала погрешности.

Определение

Доверительный интервал погрешности – это те значения погрешности, за которые не выходит погрешность измеряемой величины с вероятность PД .

1-РД
1-РД
Доверительный интервал погрешности с доверительной погрешностью РД



Погрешность ΔД = ± k•σ

 


 

Причём,

Вероятность РД попадания погрешности в свой доверительный интервал обычна довольно высока и составляет: от 0,8 до 0,(9).

Коэффициент k зависит от выбора закона распределения величины и доверительной вероятности попадания погрешности в интервал.

 

 

Обработка ряда прямых наблюдений, содержащих случайные погрешности и получение результата наблюдений

Пусть n – число измерений случайной величины X

Методы обработки различны, в зависимости от числа измерений n.

Ряд наблюдений – это последовательность значений случайной величины: X1, X2, X3, … , Xn .

 

 

Методика обработки результатов наблюдений для n > 40

1) Необходимо выявить промахи (грубые ошибки в результатах, которые явно выбиваются из общего ряда). Для этого есть специальные методики. Эти цифры изымаются.

2) Осуществляется ранжирование значений. XMIN – на первое место; XMAX – на последнее место.

3) Ищем среднее значение случайной величины X (или, осуществляем оценку математического ожидания)

4) Оцениваем СКО (среднеквадратичное отклонение)

5) Построение гистограммы (это функция, приближающая плотность вероятности некоторого распределения, построенная на основе выборки из него)

Интервал для деления оси абсцисс на графике-гистограмме выбирается по следующей формуле

   


   
P * m3

m5  
   
m2 m4

 
   
m1

 

ΔX  
ΔX  
ΔX  
ΔX  
ΔX  


XMIN I II III IV XMAX

mi – частота попадания случайной величины в интервал.

 

6) По виду гистограммы с помощью критериев согласия (параметрических и непараметрических) выдвигают гипотезу по поводу закона распределения и проверяют её.

Чаще всего используют критерий χ2 «хи-квадрат» или критерий Пирсона.

 
   
   
   
   
Предположим (выдвигаем гипотезу) что распределение – Гауссово или нормальное

P *

 

 

X

   
   
   
   
 
Вот, если бы была такая гистограмма, то мы бы назвали распределение равномерным.

P *

 

 

X

Лекция 17

Примечание:

Для облегчения подбора закона распределения существует реестр наиболее распространенных законов:

Самыми лучшими, потому как самыми хорошо объясненными и понятными являются вот эти два закона:

Нормальное или Гауссово распределение
Равномерное распределение
P(X) P(X)

 


X X

Примеры других законов распределения:

Трапециальное распределение
Треугольное распределение
P(X) P(X)

 

 


 

X X

Двухмодальное распределение
P(X)

 

 

 


X

7) Пишем результат измерения

 


Оценка среднего

При определённых n = … и РД = …

Коэффициент k зависит от вида закона распределения и доверительной погрешности.

Примечание:

Существуют случаи, когда можно не строить закон распределения и гистограмму. Это можно тогда, когда:

а) когда случай уже точно известен и обоснован в литературе, например

б) существуют случаи, когда можно с уверенностью утверждать, что закон распределения – Гауссов

Рассмотрим случай, когда это можно утверждать. Из центральной предельной теоремы теории вероятностей известно, что величина будет распределяться по нормальному закону если на неё воздействует большое число независимых величин (пять штук – уже достаточно), причём воздействие каждого из них незначительно.

Пусть X – величина. И мы считаем что она распределена по Гауссу.

 

X
3

Δ4
Δ3
Δ2
2 4

Δ5
Δ1
1 Δ – малая величина

P(X)

 

X

Если закон распределения нормальный, только в этом случае имеем право при n <= 10 (при малом числе измерений) пользоваться коэффициентом Стьюдента

При определённых n = … и РД = …

Суммирование погрешностей

Идея:

Есть устройство

𝛄3
𝛄2
𝛄1
𝛄n
Пn
П3
П2
П1
X? X1 X2 X3 Xn-1 Xn

𝛄n
𝛄3
𝛄2
𝛄1
𝛄Σ
Вход … Выход

 

Вместо приведённой погрешности может, с равным успехом, быть и абсолютная и относительная.

Варианты развития событий:

1) Известны 𝛄i и необходимо найти суммарную приведённую погрешность. Решается однозначно теоретическая задача.

2) Известна суммарная приведённая погрешность и необходимо найти погрешность каждого из блоков. Эта задача является реальной, такой, которая решается в современной технике. Однозначного решения этой проблемы нет.

Для решения задачи суммирования погрешностей вероятностным подходом, необходимо знать не только 𝛄i , но и закон распределения 𝛄i. Тогда, строится график закона распределения P(𝛄Σ). Следует помнить, что при решении может произойти трансформация закона распределения.

Рассмотрим случай под номером один: тот, когда известны погрешности каждого блока устройства и необходимо найти суммарную погрешность.

Существуют два подхода для решения этой задачи:

1) а) Арифметическое сложение

б) Геометрическое сложение


в) Сложение с коэффициентом

В случае, если мы не знаем закон распределения, но хотим включить РД , тогда можем воспользоваться особенностью: Новицким и Назаровым найдены два значения доверительной погрешности и коэффициента k,



при которых можно даже не задумываться о законе распределения – все они (законы) пересекаются в этих точках и, следовательно, любая гипотеза будет верна.

2) Вероятностный подход при суммировании погрешностей

Пример:

П1
𝛄2
𝛄1
П2

Вход Выход

Вопрос: 𝛄Σ = ?

X Y

Для использования этого метода, как отмечалось ранее, необходимы законы распределения и тогда .

Необходимо и

можно построить.

 

 

В случае, когда имеем несколько погрешностей (n>2), это уже многомерные измерения и это уже сложнее. Но даже при двух погрешностях возникают проблемы: даже при наличии двух погрешностей могут возникать трансформации суммарного закона распределения.

Пример:

При суммировании двух равномерных законов распределения, может получиться трапециальный закон на выходе. Вот так:

Равномерное распределение
Равномерное распределение

 

а a ≠ b b

Трапециальное распределение
А на выходе:

 

Высота и острота трапеции

зависит от соотношения

a и b.

А зачем, собственно, вообще искать ? Известно, при определённом РД = …

Коэффициент

Однако, на практике при суммировании погрешностей пользуются только . Выясняется, что от закона распределения не зависит и для двух элементов:

Для нахождения необходимо знать: . Коэффициент корреляции принимает любое значение между нулём и единицей (включительно, конечно).

При суммировании принимается следующее:

1) Либо r = 1 и тогда «сигма-один» и «сигма-два» жестко связаны между собой и тогда используем правило арифметической суммы:

2) Либо r = 0 и тогда «сигма-один» и «сигма-два» не связаны между собой и тогда используем правило геометрической суммы:

Это, конечно, хорошо, но главный вопрос: как понять, коэффициент корреляции равен нулю или равен единице.

Пример:

Предварительный и окончательный усилители, подключённые к источнику питания.

ПУ
ОУ


U1 U2 В этом случае коэффициент

ИП
σΣ корреляции r будет равен

σ1 UПИТ σ2 единице, ибо у нас есть общая

причина нестабильности системы

и это источник питания ИП.

Примечание:

При суммировании погрешностей обычно суммируют отдельно аддитивные погрешности, отдельно – мультипликативные, отдельно – случайные, ну, т.е. все погрешности суммируем по отдельности.









Не нашли то, что искали? Воспользуйтесь поиском гугл на сайте:


©2015- 2019 zdamsam.ru Размещенные материалы защищены законодательством РФ.