Тема 1.ЭЛЕМЕНТЫ КОМБИНАТОРИКИ
Сдам Сам

ПОЛЕЗНОЕ


КАТЕГОРИИ







Тема 1.ЭЛЕМЕНТЫ КОМБИНАТОРИКИ





Тема 1.ЭЛЕМЕНТЫ КОМБИНАТОРИКИ

Для успешного решения задач с использованием классического определения вероятности необходимо знать основные правила и формулы комбинаторики.

Комбинаторика происходит от латинского слова ”combinatio” соединение.

Группы, составленные из каких-либо предметов, (безразлично каких, например, букв, цветных шаров, кубиков, чисел и т.п.), называются соединениями (комбинациями).

Предметы, из которых состоят соединения, называются элементами.

Различают три типа соединений: перестановки, размещения и сочетания.

 

Размещения

Размещениями из n элементов по m в каждом называются такие соединения, каждое из которых содержит m элементов, взятых из числа данных n элементов, и которые отличаются друг от друга либо самими элементами (хотя бы одним), либо лишь порядком их расположения.

Число размещений из n элементов по m в каждом обычно обозначается символом и вычисляется по формуле (1.1)[1]:

 

. (1.1)

 

Понятие факториала

Произведение n натуральных чисел от 1 до n обозначается сокращенно n!, то есть (читается: n факториал).

Например, .

Считается, что 0! = 1.

Используя понятие факториала, формулу (1.1) можно представить так:

, (1.2)

 

где .

Очевидно, что = n (при m=1) и = 1 (при m=0).

 

Размещения с повторениями

 

Размещение с повторениями из n элементов по m(m × n) элементов может содержать любой элемент сколько угодно раз от 1 до m включительно, или не содержать его совсем, то есть каждое размещение с повторениями из n элементов по m элементов может состоять не только из различных элементов, но из m каких угодно и как угодно повторяющихся элементов.

Соединения, отличающиеся друг от друга хотя бы порядком расположе­ния элементов, считаются различными размещениями.



Число размещений с повторениями из n элементов по m элементов будем обозначать символом (c повт.)

Можно доказать, что оно равно nm.

 

(1.3)

 

Сочетания

Сочетаниями из n элементов по m в каждом называются такие соединения, каждое из которых содержит m элементов, взятых из числа данных n элементов, и которые отличаются друг от друга по крайней мере одним элементом.

Число сочетаний из n элементов по m в каждом обозначается символом и вычисляется так:

где ,   (1.4)

 

или

где .   (1.5)

 

Свойства сочетаний:  

Сочетания с повторениями

Сочетание с повторениями из n элементов по m(m Î n) элементов может содержать любой элемент сколько угодно раз от 1 до m включительно, или не содержать его совсем, то есть каждое сочетание из n элементов по m элементов может состоять не только из m различных элементов, но из m каких угодно и как угодно повторяющихся элементов.

Следует отметить, что если, например, два соединения по m элементов отличаются друг от друга только порядком расположения элементов, то они не считаются различными сочетаниями.

Число сочетаний с повторениями из n элементов по m будем обозначать символом Формула для вычисления числа сочетаний с повторениями:

(1.6)

 

Замечание: m может быть и больше n.

Перестановки

Перестановками из n элементов называются такие соединения, каждое из которых содержит все n элементов, и которые отличаются друг от друга лишь порядком расположения элементов.

Число перестановок их n элементов обозначается символом Рn, это то же самое, что число размещений из nэлементов по nв каждом, поэтому

 

(1.7)

 

Перестановки с повторениями

 

Число перестановок с повторениями выражается при помощи формулы:

,   (1.8)  

где числа повторений.

 

Правила комбинаторики

Правило суммы (принцип логического сложения) Если объект а может быть выбран m способами, а объект b может быть выбран другими n способами (не такими как а), то выбор элемента а или b из объединенной совокупности может быть осуществлен m+n способами.
Правило произведения (принцип логического умножения) Если объект а может быть выбран m способами и после каждого такого выбора объект b может быть выбран n способами, то выбор пары объектов а и b в указанном порядке может быть осуществлен m∙n способами.

А В

Рис.2.2

 

Пересечение А и В (обозначается как A B) есть набор, содержащий все элементы, которые являются членами и А и В.

Объединение А и В (обозначается A B) есть набор, содержащий все элементы, которые являются членами или А, или В, или А и В вместе.(рис. 2.2)

БАЙЕСА

Часто мы начинаем анализ вероятностей имея предварительные, априорные значения вероятностей интересующих нас событий. Затем из источников информации, таких как выборка, отчет, опыт и т.д. мы получаем дополнительную информацию об интересующем нас событии. Имея эту новую информацию, мы можем уточнить, пересчитать значения априорных вероятностей. Новые значения вероятностей для тех же интересующих нас событий будут уже апостериорными (послеопытными) вероятностями. Теорема Байеса дает нам правило для вычисления таких вероятностей.

Последовательность процесса переоценки вероятностей можно схематично изобразить так:

 

Априорные Новая информация из Байесовский Апостериорные

вероятности каких-либо источников анализ вероятности

 

Пусть событие А может осуществиться лишь вместе с одним из событий Н1, Н2, Н3, ..., Нn, образующих полную группу. Пусть известны вероятности P(H1), P(H2),…P(Hi),…P(Hn). Так как события Hi образуют полную группу, то .Так же известны и условные вероятности события А: P(A/H1), P(A/H2), …P(A/Hi)…, P(A/Hn), i=1, 2, …, n. Так как заранее неизвестно с каким из событий Hi произойдет событие А, то события Hi называют гипотезами.

Необходимо определить вероятность события А и переоценить вероятности событий Hi с учетом полной информации о событии А.

Вероятность события А определяется как:

(3.1)

Эта вероятность называется полной вероятностью.

Если событие А может наступить только вместе с одним из событий Н1, Н2, Н3, ..., Нn, образующих полную группу несовместных событий и называемых гипотезами, то вероятность события А равна сумме произведений вероятностей каждого из событий Н1, Н2, ..., Нn на соответствующую условную вероятность события А.

Условные вероятности гипотез вычисляются по формуле:

 

или (3.2)

 

 

Это - формулы Байеса, (по имени английского математика Т.Байеса, опубликовавшего их в 1764 году) выражение в знаменателе - формула полной вероятности.

 


Дискретной случайной величиной называется такая переменная величина, которая может принимать конечную или бесконечную совокупность значений, причем принятие ею каждого из значений есть случайное событие с определенной вероятностью.

Соотношение, устанавливающее связь между отдельными возможными значениями случайной величины и соответствующими им вероятностями, называется законом распределения дискретной случайной величины. Если обозначить возможные числовые значения случайной величины Х через х , х , ... ..., а через вероятность появления значения , то дискретная случайная величина полностью определяется следующей таблицей 4.1:

Таблица 4.1

...
p1 ...

 

где значения х , х ,..., ,записываются, как правило, в порядке возрастания. Таблица называется законом или рядом распределения дискретной случайной величины Х. Поскольку в верхней строчке ряда распределения записаны все значения случайной величины Х, то нижняя строчка обладает тем свойством, что

(4.1)

Графическое изображение ряда распределения называется многоугольником распределения (полигоном распределения) (рис. 4.1):

 
 


 

 
 


 

Рис.4.1.

Для этого по оси абсцисс откладывают значения случайной величины, по оси ординат - вероятности значений. Полученные точки соединяют отрезками прямой. Построенная фигура и называется многоугольником распределения вероятностей.

Дискретная случайная величина может быть задана функцией распределения .

Функцией распределения случайной величины Х называется функция F (x), выражающая вероятность того, что Х примет значение, меньшее чем х:

(4.2)

- здесь для каждого значения х суммируются вероятности тех значений , которые лежат левее точки х.

Функция F (x) есть неубывающая функция;

Для дискретных случайных величин функция распределения F(x) есть разрывная ступенчатая функция, непрерывная слева (рис. 4.2):

 

F(x)

       
 
   
 

 

 


p3

p2

p1

 

 

x1 x2 0 х3 x j

 

Рис.4.2.

 

Вероятность попадания случайной величины Х в промежуток от до (включая ) выражается формулой:

 

(4.3)

 

Числовые характеристики.

Математическим ожиданием дискретной случайной величины называется:

( 4.4)

В случае бесконечного множества значений в правой части (4.4) находится ряд, и мы будем рассматривать только те значения Х, для которых этот ряд абсолютно сходится.

М(Х) представляет собой среднее ожидаемое значение случайной величины. Оно обладает следующими свойствами:

1) М(С)=С, где С=const

2) M (CX)=CM (X) (4.5)

3) M (X+Y)=M(X)+M(Y), для любых Х и Y.

4) M (XY)=M (X)M(Y), если Х и Y независимы.

Для оценки степени рассеяния значений случайной величины около ее среднего значения M(X)=авводятся понятия дисперсии D(X) и среднего квадратического (стандартного) отклонения . Дисперсией называется математическое ожидание квадрата разности (X- ), т.е. :

D(X)=M(X- )2= pi,

где =М(X); определяется как квадратный корень из дисперсии, т.е. .

Для вычисления дисперсии пользуются формулой:

(4.6)

Свойства дисперсии и среднего квадратического отклонения:

 

1) D(C)=0, где С=сonst

2) D(CX)=C2D(X), (CX)= çCç (X) (4.7)

3) D(X+Y) =D(X)+D(Y),

 

если Х и У независимы.

Размерность величин и совпадает с размерностью самой случайной величины Х, а размерность D(X) равна квадрату размерности случайной величины Х.

4.3. Математические операции над случайными величинами.

 

Пусть случайная величина Х принимает значения с вероятностями а случайная величина Y- значения с вероятностями Произведение КX случайной величины Х на постоянную величину К - это новая случайная величина, которая с теми же вероятностями , что и случайная величина Х, принимает значения, равные произведениям на К значений случайной величины Х. Следовательно, ее закон распределения имеет вид таблица 4.2:

Таблица 4.2

...
...

 

Квадрат случайной величины Х, т.е. , - это новая случайная величина ,которая с теми же вероятностями, что и случайная величина Х, принимает значения, равные квадратам ее значений.

Сумма случайных величин Х и У - это новая случайная величина, которая принимает все значения вида с вероятностями , выражающими вероятность того, что случайная величина Х примет значение а У - значение , то есть

(4.8)

Если случайные величины Х и У независимы, то:

(4.9)

Аналогично определяются разность и произведение случайных величин Х и У.

Разность случайных величин Х и У - это новая случайная величина, которая принимает все значения вида , а произведение - все значения вида с вероятностями, определяемыми по формуле (4.8), а если случайные величины Х и У независимы, то по формуле (4.9).

4.4. Распределения Бернулли и Пуассона.

 

Рассмотрим последовательность n идентичных повторных испытаний, удовлетворяющих следующим условиям:

1. Каждое испытание имеет два исхода, называемые успех и неуспех.

Эти два исхода - взаимно несовместные и противоположные события.

2. Вероятность успеха, обозначаемая p, остается постоянной от испытания к испытанию. Вероятность неуспеха обозначается q.

3. Все n испытаний - независимы . Это значит, что вероятность наступления события в любом из n повторных испытаний не зависит от результатов других испытаний.

Вероятность того, что в n независимых повторных испытаниях, в каждом из которых вероятность появления события равна , событие наступит ровно m раз ( в любой последовательности), равна

(4.10)

где q=1-р.

Выражение (4.10) называется формулой Бернулли.

Вероятности того, что событие наступит:

а) менее m раз,

б) более m раз,

в) не менее m раз,

г) не более m раз - находятся соответственно по формулам:

Биномиальным называют закон распределения дискретной случайной величины Х - числа появлений события в n независимых испытаниях, в каждом из которых вероятность наступления события равна р; вероятности возможных значений Х = 0,1,2,..., m,...,n вычисляются по формуле Бернулли (таблица 4.3).

Таблица 4.3

Число успехов Х=m         ...   m   ...   n
Вероятность Р         ...     ...  

 

Так как правая часть формулы (4.10) представляет общий член биноминального разложения , то этот закон распределения называют биномиальным. Для случайной величины Х, распределенной по биноминальному закону, имеем:

 

M(X)=nр (4.11)

D(X)=nрq (4.12)

 

Если число испытаний велико, а вероятность появления события р в каждом испытании очень мала, то вместо формулы (4.10) пользуются приближенной формулой:

(4.13)

где m - число появлений события в n независимых испытаниях, ( среднее число появлений события в n испытаниях).

Выражение (4.13) называется формулой Пуассона. Придавая m целые неотрицательные значения m=0,1,2,...,n, можно записать ряд распределения вероятностей, вычисленных по формуле (4.13), который называется законом распределения Пуассона (таблица 4.4):

Таблица 4.4

 

M ... m ... n
Pn;m ... ...

 

Распределение Пуассона часто используется, когда мы имеем дело с числом событий, появляющихся в промежутке времени или пространства. Например, число машин, прибывших на автомойку в течении часа, число дефектов на новом отрезке шоссе длиной в 10 километров, число мест утечки воды на 100 километров водопровода, число остановок станков в неделю, число дорожных происшествий.

Если распределение Пуассона применяется вместо биномиального распределения, то n должно иметь порядок не менее нескольких десятков, лучше нескольких сотен, а nр< 10.

Математическое ожидание к дисперсии случайной величины, распределенной по закону Пуассона, совпадают и равны параметру , которая определяет этот закон, т.е.

 

M(X)=D(X)=n×p= . (4.14)

Нормальное распределение

 

Если плотность распределения (дифференциальная функция) случайной переменной определяется выражением:

(5.10)

то говорят, что Х имеет нормальное распределение с параметрами а и . Вероятностный смысл параметров: =М(X), а .Обозначение:

Для расчета вероятности попадания нормально распределенной случайной величины Х в промежуток от до используется формула:

 

(5.11)

(интеграл Лапласа)

Формула (5.11) иногда в литературе называется интегральной теоремой Лапласа.

Функция обладает свойствами:

3) (см. таблицу приложения 2).

Функция табулирована. В частности для симметричного относительно а промежутка имеем:

(5.12)

Формула (5.12) применима и к частоте m, поскольку ее закон распределения при достаточно большом числе испытаний практически совпадает с нормальным. Применительно к случайной величине m, с учетом ее числовых характеристик

M(m) = np и (5.13)

формула (5.12) примет вид :

(5.14)

Формула (5.12) может быть применена и к относительной частоте с числовыми характеристиками и (5.15)

(5.16)

С вероятностью, очень близкой к единице (равной нормально распределенная случайная величина Х удовлетворяет неравенству:

 

(5.17)

В этом состоит правило трех сигм: если случайная величина распределена по нормальному закону, то ее отклонение от математического ожидания практически не превышает .

Локальная теорема Муавра-Лапласа. При р и p 1 и достаточно большом n биноминальное распределение близко к нормальному закону (причем их математические ожидания и дисперсии совпадают), т.е. имеет место равенство:

, где , a=nр

 

Тогда:

(5.18)

для достаточно больших n (здесь (х) - плотность вероятностей стандартной нормальной случайной величины и ).


Статистическое оценивание

 

Пусть из генеральной совокупности извлекается выборка объема n, причем значение признака х1 наблюдается m1 раз, х2 m2 раз,..., хk наблюдается mk раз, - объем выборки.

Мы можем сопоставить каждому значению xi относительную частоту mi/n.

Статистическим распределением выборки называют перечень возможных значений признака xi и соответствующих ему частот или относительных частот (частостей) mi (wi).

Числовые характеристики генеральной совокупности, как правило неизвестные, (средняя, дисперсия и др.) называют параметрами генеральной совокупности(обозначают, например, или , ). Доля единиц, обладающих тем или иным признаком в генеральной совокупности, называется генеральной долей и обозначается р.

По данным выборки рассчитывают числовые характеристики, которые называютстатистиками(обозначают , или , , выборочная доля обозначается w). Статистики, получаемые по различным выборкам, как правило, отличаются друг от друга. Поэтому статистика, полученная из выборки, является только оценкой неизвестного параметра генеральной совокупности. Оценка параметра - определенная числовая характеристика, полученная из выборки. Когда оценка определяется одним числом, ее называют точечной оценкой.

В качестве точечных оценок параметров генеральной совокупности используются соответствующие выборочные характеристики. Теоретическое обоснование возможности использования этих выборочных оценок для суждений о характеристиках и свойствах генеральной совокупности дают закон больших чисел и центральная предельная теорема Ляпунова.

Выборочная средняя является точечной оценкой генеральной средней, т.е.

Генеральная дисперсия имеет 2 точечные оценки: - выборочная дисперсия; - исправленная выборочная дисперсия[3]. - исчисляется при , а - при . Причем в математической статистике доказывается, что

или (7.1)

При больших объемах выборки и практически совпадают.

Генеральное среднее квадратическое отклонение так же имеет 2 точечные оценки: - выборочное среднее квадратическое отклонение и - исправленное выборочное среднее квадратическое отклонение. используется для оценивания при , а для оценивания , при ;при этом , а .

Ошибки выборки

 

Поскольку выборочная совокупность представляет собой лишь часть генеральной совокупности, то вполне естественно, что выборочные характеристики не будут точно совпадать с соответствующими генеральными. Ошибка репрезентативности может быть представлена как разность между генеральными и выборочными характеристиками изучаемой совокупности: , либо .

Применительно к выборочному методу из теоремы Чебышева следует, что с вероятностью сколь угодно близкой к единице можно утверждать, что при достаточно большом объеме выборки и ограниченной дисперсии генеральной совокупности разность между выборочной средней и генеральной средней будет сколь угодно мала.

(7.2)

где - средняя по совокупности выбранных единиц,

- средняя по генеральной совокупности,

- среднее квадратическое отклонение в генеральной совокупности.

Запись показывает, что о величине расхождения между параметром и статистикой , можно судить лишь с определенной вероятностью, от которой зависит величина t.

Формула (7.2) устанавливает связь между пределом ошибки , гарантируемым с некоторой вероятностью Р, величиной tи средней ошибкой выборки .

Cогласно центральной предельной теореме Ляпунова выборочные распределения статистик (при n ³ 30) будут иметь нормальное распределение независимо от того, какое распределение имеет генеральная совокупность. Следовательно:

 

(7.3)

где Ф0(t) - функция Лапласа.

 

Значения вероятностей, соответствующие различным t, содержатся в специальных таблицах: при n ³ 30 - в таблице значений Ф0(t), а при n < 30 в таблице распределения t-Стьюдента. Неизвестное значение при расчете ошибки выборки заменяется

В зависимости от способа отбора средняя ошибка выборки определяется по разному:

Таблица 7.1

Интервальное оценивание

Мы уже знаем, что . Если представляет собой предел, которым ограничена сверху абсолютная величина , то . Следовательно,

 

(7.4)

 

Мы получили интервальную оценку генеральной средней. Из теоремы Чебышева следует, что

 

. (7.5)

Интервальной оценкой называют оценку, которая определяется двумя числами - концами интервала, который с определенной вероятностью накрывает неизвестный параметр генеральной совокупности. Интервал, содержащий оцениваемый параметр генеральной совокупности, называют доверительным интервалом.Для его определения вычисляется предельная ошибка выборки , позволяющая установить предельные границы, в которых с заданной вероятностью (надёжностью) должен находиться параметр генеральной совокупности.

Предельная ошибка выборки равна t-кратному числу средних ошибок выборки. Коэффициент t позволяет установить, насколько надежно высказывание о том, что заданный интервал содержит параметр генеральной совокупности. Если мы выберем коэффициент таким, что высказывание в 95% случаев окажется правильным и только в 5% - неправильным, то мы говорим: со статистической надежностью в 95% доверительный интервал выборочной статистики содержит параметр генеральной совокупности.Статистической надежности в 95% соответствует доверительная вероятность - 0,95. В 5% случаев утверждение "параметр принадлежит доверительному интервалу" будет неверным. То есть 5% задает уровень значимости ( ) или 0,05 вероятность ошибки. Обычно в статистике уровень значимости выбирают таким, чтобы он не превысил 5% ( < 0,05). Доверительная вероятность и уровень значимости дополняют друг друга до 1 (или 100%) и определяют надежность статистического высказывания.

С помощью доверительного интервала можно оценить не только генеральную среднюю, но и другие неизвестные параметры генеральной совокупности.

Для оценкиматематического ожидания а (генеральной средней)[5]нормально распределенного количественного признака Х по выборочной средней при известном среднем квадратическом отклонении sгенеральной совокупности (на практике - при большом объеме выборки, т.е. при n ³ 30) и собственно-случайном повторном отборе формула (7.5.2) примет вид:

(7.6)

где t определяется по таблицам функции Лапласа из соотношения

2F0(t) = g;

- среднее квадратическое отклонение;

n - объем выборки (число обследованных единиц).

D определяется по формуле:

Для оценки математического ожидания а (генеральной средней) нормально распределенного количественного признака Х по выборочной средней







Не нашли то, что искали? Воспользуйтесь поиском гугл на сайте:


©2015- 2018 zdamsam.ru Размещенные материалы защищены законодательством РФ.