Сдам Сам

ПОЛЕЗНОЕ


КАТЕГОРИИ







ЧАСТЬ 2. МОДЕЛИРОВАНИЕ ОПЕРАЦИЙ ПО СХЕМЕ МАРКОВСКИХ СЛУЧАЙНЫХ ПРОЦЕССОВ





ЧАСТЬ 2. МОДЕЛИРОВАНИЕ ОПЕРАЦИЙ ПО СХЕМЕ МАРКОВСКИХ СЛУЧАЙНЫХ ПРОЦЕССОВ

МАРКОВСКИЙ СЛУЧАЙНЫЙ ПРОЦЕСС

С ДИСКРЕТНЫМИ СОСТОЯНИЯМИ

 

Многие операции, которые приходится анализировать под углом зрения выбора оптимального решения, развиваются как случайные процессы, ход и исход которых зависят от ряда случайны факторов, сопровождающих эти операции.

Для того, чтобы вычислить числовые параметры, характеризующие эффективность таких операций, нужно построить некоторую вероятностную модель явления, учитывающую сопровождающие его случайные факторы.

Для математического описания многих операций, развивающихся в форме случайного процесса, может быть с успехом применен математический аппарат, разработанный в теории вероятностей для так называемых марковских случайных процессов.

Поясним понятие марковского случайного процесса.

Пусть имеется некоторая физическая система S, состояние которой меняется с течением времени (под системой Sможет пониматься что угодно: техническое устройство, ремонтная мастерская, вычислительная машина, железнодорожный узел и т. д.). Если состояние системы S меняется во времени случайным, заранее непредсказуемы образом, мы говорим, что в системе S протекает случайный процесс.

Примерами случайных процессов могут быть:

— процесс функционирования ЭЦВМ;

— процесс наведения на цель управляемой ракеты или космического летательного аппарата;

— процесс обслуживания клиентов парикмахерской или ремен­ной мастерской;

— процесс выполнения плана снабжения группы предприятий и т. д.

Конкретное протекание каждого из таких процессов зависит с ряда случайных, заранее непредсказуемых факторов, таких как:

— поступление заказов на ЭЦВМ и вид этих заказов; случайные выходы ЭЦВМ из строя;

— случайные возмущения (помехи) в системе управления ракетой;

— случайный характер потока заявок (требований), поступаю­щих со стороны клиентов;

— случайные перебои в выполнении плана снабжения и т. д.

Случайный процесс, протекающий в системе S, называется марковским процессом (или «процессом без последействия»), если он обладает следующим свойством:

Для каждого момента времена t0 вероятность любого состояния системы в будущем (при t > t0) зависит только от ее состояния в на­стоящем (при t = t0) и не зависит от того, когда и каким образом систе­ма пришла в это состояние (т. е. как развивался процесс в прошлом).

Другими словами, в марковском случайном процессе будущее раз­витие его зависит только от настоящего состояния и не зависит от «пре­дыстории» процесса.

 

Рассмотрим пример. Пусть система S представляет собой техни­ческое устройство, которое уже проработало некоторое время, соот­ветственным образом «износилось» и пришло в некоторое состояние, характеризующееся определенной степенью изношенности S. Нас ин­тересует, как будет работать система в будущем. Ясно, что, по крайней мере в первом приближении, характеристики работы системы в буду­щем (частота отказов, потребность в ремонте) зависят от состояния устройства в настоящий момент и не зависят от того, когда и как устройство достигло своего настоящего состояния.



На практике часто встречаются случайные процессы, которые, с той или другой степенью приближения, можно считать марков­скими.

Теория марковских случайных процессов является в настоящее время очень обширным разделом теории вероятностей с широким спект­ром различных приложений — от описания физических явлений типа диффузии или перемешивания шихты во время плавки в доменной печи до процессов образования очередей или распространения мутаций ге­нов в биологической популяции. Нас будут интересовать, главным об­разом, применения теории марковских случайных процессов к построе­нию математических моделей операций, ход и исход которых сущест­венно зависит от случайных факторов.

Марковские случайные процессы делятся на классы по некоторым признакам, в зависимости от того, как и в какие моменты времени си­стема S может менять свои состояния.

Случайный процесс называется процессом с дискретными состояниями, если возможные состояния системы:

S1, S2, S3, ...

можно перечислить (перенумеровать) одно за другим, а сам процесс состоит в том, что время от времени система S скачком (мгновенно) перескакивает из одного состояния в другое.

Пример 1. Техническое устройство S состоит из двух узлов: I и II, каждый из которых может в ходе работы устройства отказать (выйти из строя). Воз­можны следующие состояния системы:

S1 — оба узла работают;

S2 — первый узел отказал, второй работает;

S3 — второй узел отказал, первый работает;

S4 — оба узла отказали.

Процесс, протекающий в системе, состоит в том, что она случайным образом, в какие-то моменты времени, переходит (перескакивает) из состояния в со­стояние. Всего у системы четыре возможных состояния, которые мы перенумеро­вали. Перед нами — процесс с дискретными состояниями

 

Кроме процессов с дискретными состояниями существуют случай­ные процессы с непрерывными состояниями: для этих процессов харак­терен постепенный, плавный переход из состояния в состояние. На­пример, процесс изменения напряжения в осветительной сети пред­ставляет собой случайный процесс с непрерывными состояниями.

 

 

В данной главе мы будем рассматривать только случайные про­цессы с дискретными состояниями.

При анализе случайных процессов с дискретными состояниями очень удобно пользоваться геометрической схемой — так называемым графом состояний. Граф состояний геометрически изобра­жает возможные состояния системы и ее возможные переходы из со­стояния в состояние.

Пусть имеется система S с дискретными состояниями:

S1, S2, , ..., Sn.

Мы будем изображать каждое состояние прямоугольником, а воз­можные переходы («перескоки») из состояния в состояние — стрел­ками, соединяющими эти прямоугольники (рис. 1).

Заметим, что стрелками отмечаются только непосредственные переходы из состояния в состояние; если система может перейти из состояния S1 в S3 только через S2, то стрелками отмечаются только переходы S1 ® S2 и S2 ® S3, но не S1 ® S3.

Пример 2. Система S — автомашина, которая может находиться в одном из пяти возможных состояний:

S1 — исправна, работает; |

S2 — неисправна, ожидает осмотра;

S3 — осматривается;

S4 — ремонтируется;

S5 — списана.

Граф состояний системы показан на рис. 2.

Пример 3. Построить граф состояний в условиях примера 1 (предпола­гается, что ремонт узлов в ходе процесса не производится).

Решение. Граф состояний представлен на рис. 3. Отметим, что на графе не показан возможный переход из состояния S1, непосредственно в S4, который осуществится, если строго одновременно выйдут из строя оба узла. Возможностью такого события мы пренебрегаем.

 

 

Пример 4. Система S, как и в примере 1, представляет собой техническое устройство, состоящее из двух узлов: I и II; каждый из них может в какой-то момент времени отказать. Отказавший узел немедленно начинает восстанавливаться. Возможные состояния системы:

S1 — оба узла работают;

S2 — первый узел восстанавливается, второй работает;

S3 — первый узел работает, второй восстанавливается;

S4 — оба узла восстанавливаются

Граф состояний системы показан на рис. 4

 

Пример 5. В условиях примера 4 каждый узел перед тем, как начать вос­станавливаться, подвергается осмотру с целью локализации неисправности.

Состояния системы будем для удобства нумеровать не одним, а двумя ин­дексами; первый будет означать состояния первого узла:

1 — работает,

2 — осматривается,

3 — восстанавливается;

второй — те же состояния для второго узла, так что, например, S23 будет озна­чать: первый узел осматривается, второй — восстанавливается, и т. д.

Возможные состояния системы S будут:

S11 — оба узла работают,

S12 — первый узел работает, второй осматривается,

. . . . . . . . . . . . . . . . . . . .

S33 — оба узла восстанавливаются (всего 9 состояний).

Граф состояний показан па рис. 5.

 

 

И НЕПРЕРЫВНЫМ ВРЕМЕНЕМ.

МАРКОВСКАЯ ЦЕПЬ

 

Способы математического описания марковского случайного про­цесса, протекающего в системе с дискретными состояниями, зависят от того, в какие моменты времени — заранее известные или случай­ные — могут происходить переходы («перескоки») системы из состоя­ния в состояние.

Случайный процесс называется процессом с дискрет­ным временем, если переходы системы из состояния в состояние возможны только в строго определенные, заранее фиксированные мо­менты времени: t1, t2, ... . В промежутки времени между этими момен­тами система S сохраняет свое состояние.

Случайный процесс называется процессом с непрерыв­ным временем, если переход системы из состояния в состояние возможен в любой, наперед неизвестный, случайный момент t.

Рассмотрим прежде всего марковский случайный процесс с дискрет­ными состояниями и дискретным временем.

Пусть имеется физическая система S, которая может находиться в состояниях:

S1, S2, ... , Sn ,

причем переходы («перескоки») системы из состояния в состояние возможны только в моменты:

t1, t2, ... , tn, … .

Будем называть эти моменты «шагами» или «этапами» процесса и рассматривать случайный процесс, происходящий в системе S, как функцию целочисленного аргумента: 1, 2, ..., k, ... (номера шага).

Случайный процесс, происходящий в системе, состоит в том, что и последовательные моменты времени t1, t2, t3, ..., система S оказы­вается в тех или других состояниях, ведя себя, например, следую­щим образом:

S1 ® S3 ® S5 ® S4 ® S2 ® S1 ® ...

или же

S1 ® S2 ® S1 ® S2 ® S3 ® S4 ® S1 ® ... .

В общем случае в моменты t1, t2, ... система может не только ме­нять состояние, но и оставаться в прежнем, например:

S1 ® S1 ® S2 ® S3 ® S3 ® S3 ® S4 ® S1 ®...

Условимся обозначать Si(k) событие, состоящее в том, что после k шагов система находится в состоянии Si. При любом k события

S1(k), S2(k), ..., Si(k), ..., Sn(k)

образуют полную группу и несовместны.

Процесс, происходящий в системе, можно представить как после­довательность (цепочку) событий, например:

S1(0), S2(1), S1(2), S2(3), S3(4), ...

Такая случайная последовательность событий называется марковской цепью, если для каждого шага вероятность перехода из любого состояния Si в любое Sj не зависит от того, когда и как система пришла в состояние Si.

 

 

Мы будем описывать марковскую цепь с помощью так называе­мых вероятностей состояний. Пусть в любой момент времени (после любого, k-ro шага) система S может быть в одном из со­стояний:

S1, S2, ..., Sn,

т. е. осуществится одно из полной группы несовместных событий:

S1(k), S2(k), ..., Sn(k).

Обозначим вероятности этих событий:

p1(1) = P(S1(1)); p2(1) = P(S2(1)); … ; pn(1) = P(Sn(1))

— вероятности после первого шага,

p1(2) = P(S1(2)); p2(2) = P(S2(2)); … ; pn(2) = P(Sn(2)) (1)

— вероятности после второго шага; и вообще после k -го шага:

p1(k) = P(S1(k)); p2(k) = P(S2(k)); … ; pn(k) = P(Sn(k)) (2)

Легко видеть, что для каждого номера шага k

p1(k) + p2(k) + … + pn(k) = 1,

так как это — вероятности несовместных событий, образующих пол­ную группу.

 

Будем называть вероятности

p1(k), p2(k), … , pn(k) вероятностями состояний; поставим задачу: найти ве­роятности состояний системы для любого k.

Изобразим состояния системы в виде графа (рис. 6), где стрелка­ми указаны возможные переходы системы из состояния в состояние за один шаг.

Случайный процессе (марковскую цепь) можно представить себе так, как будто точка, изображающая систему S, случайным образом перемещается (блуждает) по графу состояний, перескакивая из состоя­ния в состояние в моменты t1, t2, ..., а иногда (в общем случае) и задер­живаясь какое-то число шагов в одном и том же состоянии. Например, последовательность переходов

S1 ® S3 ® S2 ® S2 ® S3 ® S5 ® S6 ® S2

можно изобразить на графе состояний как последовательность различ­ных положений точки (см. пунктирные стрелки, изображающие пере­ходы из состояния в состояние на рис. 7). «Задержка» системы в со­стоянии S2 на третьем шаге изображена стрелкой, выходящей из со­стояния S2 и в него же возвращающейся.

Для любого шага (момента времени tl, t2, ..., tk, ... или номера 1, 2, ..., k ...) существуют какие-то вероятности перехода системы из любого состояния в любое другое (некоторые из них равны нулю, если непосредственный переход за один шаг невозможен), а также вероят­ность задержки системы в данном состоянии.

Будем называть эти вероятности переходными веро­ятностями марковской цепи.

Марковская цепь называется однородной, если переходные вероятности не зависят от номера шага. В противном случае марков­ская цепь называется неоднородной.

 

Рассмотрим сначала однородную марковскую цепь. Пусть система S имеет n возможных состояний S1, S2, ..., Sn. Предположим, что для каждого состояния нам известна вероятность перехода в любое другое состояние за один шаг (в том числе и вероятность задержки в данном состоянии). Обозначим Рij вероятность перехода за один шаг из состоя­ния Si в состояние Sj; Рii будет вероятность задержки системы в со­стоянии Si. Запишем переходные вероятности Рij в виде прямоуголь­ной таблицы (матрицы):

(3)

Некоторые из переходных вероятностей Рij могут быть равны ну­лю: это означает, что за один шаг переход системы из i-го состояния в j-е невозможен. По главной диагонали матрицы переходных вероятностей стоят вероятности Рii того, что система не выйдет из состояния Si, а останется в нем.

Пользуясь введенными выше событиями S1(k), S2(k), ..., Sn(k), пере­ходные вероятности Pij можно записать как условные вероятности:

Pij = P(Sj(k)/ Si(k-1)).

Отсюда следует, что сумма членов, стоящих в каждой строке мат­рицы (3), должна быть равна единице, так как, в каком бы состоянии система ни была перед k-м шагом, события S1(k), S2(k), ..., Sn(k) несовмест­ны и образуют полную группу.

При рассмотрении марковских цепей часто бывает удобно пользо­ваться графом состояний, на котором у стрелок проставлены соответ­ствующие переходные вероятности (см. рис. 8). Такой граф мы будем называть «размеченным графом состояний».

Заметим, что на рис. 4.8 проставлены не все переходные вероят­ности, а только те из них, которые не равны нулю и меняют состоя­ние системы, т. е. Рij при i ¹ j; «вероятности задержки» Р11, Р22, ... проставлять на графе излишне, так как каждая из них допол­няет до единицы сумму переходных вероятностей, соот­ветствующих всем стрелкам, исходящим из данного состояния. Например, для графа рис. 8

P11 = l - (P12 + P13),

P22 = l - (P23 + P24),

P33 = l - (P32 + P35),

P44 = l - (P43 + P45 + P46),

P55 = l - P56 ,

P66 = l - P62 .

Если из состояния Si не исходит ни одной стрелки (переход из не­го ни в какое другое состояние невозможен), соответствующая вероят­ность задержки Рii равна единице.

Имея в распоряжении размеченный граф состояний (или, что рав­носильно, матрицу переходных вероятностей) и зная начальное состоя­ние системы, можно найти вероятности состояний

p1(k), p2(k), ... , pn(k)

после любого (k - го) шага.

Покажем, как это делается.

Предположим, что в начальный момент (перед первым шагом) си­стема находится в каком-то определенном состоянии, например, Sm. Тогда, для начального момента (0) будем иметь:

p1(0)=0; p2(0)=0; ...; pm(0) = l; …; Рn(0)=0,

т. е. вероятности всех состояний равны нулю, кроме вероятности на­чального состояния Sm, которая равна единице.

Найдем вероятности состояний после первого шага. Мы знаем, что перед первым шагом система заведомо находится в состоянии Sm. Значит, за первый шаг она перейдет в состояния S1, S2, ..., Sm, ..., Sn с вероятностями

Pm1, Pm2, …, Pmm, …, Pmn,

записанными в m-й строке матрицы переходных вероятностей. Таким образом, вероятности состояний после первого шага будут:

p1(1) = Pm1; p2(1) = Pm2; …; pm(1) = Pmm; …; pn(1) = Pmn . (4)

Найдем вероятности состояний после второго шага:

pl(2), р2(2), ..., рi(2),…, рn(2).

Будем вычислять их по формуле полной вероятности, с гипотезами:

— после первого шага система была в состоянии S1;

— после первого шага система была в состоянии S2;

. . . . . . . . . . . . . . . . . . . . . .

— после первого шага система была в состоянии Si;

. . . . . . . . . . . . . . . . . . . . . .

— после первого шага система была в состоянии Sn.

Вероятности гипотез известны (см. (4)); условные вероятности перехода в состояние Si при каждой гипотезе тоже известны и записаны в матрице переходных вероятностей. По формуле полной вероятности получим:

(5)

или, гораздо короче,

(i=1, …, n) (6)

В формуле (6) суммирование распространяется формально на все состояния S1, ..., Sn; фактически учитывать надо только те из них, для которых переходные вероятности Рij отличны от нуля, то есть те состояния, из которых может совершиться переход в состоя­ние Si (или задержка в нем).

Таким образом, вероятности состояний после второго шага из­вестны. Очевидно, после третьего шага они определяются аналогично:

(i=1, …, n) (7)

и вообще после k-ro шага:

(i=1, …, n) (8)

Итак, вероятности состояний pi(k) после k-гo шага определяются рекуррентной формулой (8) через вероятности состояний после (k - 1)-го шага; те, в свою очередь - через вероятности состояний после (k - 2)-го шага, и т. д.

 

Пример 1. По некоторой цели ведется стрельба четырьмя выстрелами в моменты времени t1, t2, t3, t4.

Возможные состояния цели (системы S):

S1 - цель невредима;

S2 - цель незначительно повреждена;

S8 - цель получила существенные повреждения;

S4 - цель полностью поражена (не может функционировать).

Размеченный граф состояний системы показан на рис, 9.

 

В начальный момент цель находится в состоянии S1 (не повреждена). Оп­ределить вероятности состояний цели после четырех выстрелов.

Решение. Из графа состояний имеем:

Р12 = 0,4; Р13 = 0,2; P14 = 0,1 и Р11 = 1 - (Р12 + Р13+ Р14) =0,3.

Аналогично находим:

Р21 = 0; Р22 = 0,4; Р23 = 0,4; Р24 = 0,2;

Р31= 0; Р32 = 0; Р33 = 0,3; Р34 = 0,7;

Р41 = 0; Р42 = 0; Р43 = 0; Р44=1

Таким образом, матрица переходных вероятностей имеет вид;

Так как в начальный момент цель S находится в состоянии S1, то

p1(0) = 1.

Вероятности состояний после первого шага (выстрела) берутся из первой строки матрицы:

p1(1) = 0,3; р2(1) = 0,4; р3(1) = 0,2; р4(1) = 0,1

Вероятности состояний после второго шага:

p1(2) = p1(1)P11 = 0,3×0,3 = 0,09;

р2(2) = р1(1)Р12 + р2(1)Р22 = 0,3×0,4 + 0,4×0,4 = 0,28;

Рз(2) = р1(1)Р13 + p2(1)Р23 + p3(1)P33 = 0,3×0,2+ 0,4×0,4+0,2×0,3 = 0,28;

Р4(2) = Р1(1)Р14 +p2(1) Р24 + p3(1)P34 + p4(1)P44= 0,3×0,1+0,4×0,2+ 0,2×0,7+ 0,1×1= 0,35.

Вероятности состоянии после третьего шага:

p1(3) = p1(2)Р11 = 0,09×0,3 = 0,027;

p2(3) = p1(2)P22 + p2(2) P22 = 0,09×0,4+ 0,28×0,4 = 0,148;

p3(3) = p1(2)P13 + p2(2)P23 + p3(2) P33 =0,09×0,2 + 0,28×0,4 + 0,28×0,3 = 0,214;

p4(3) = p1(2) P14 + p2(2)P24 + p3(2)P34 + p4(2) P44 = 0,09×0,1+0,28×0,2 + 0,28×0,7 + 0,35×1 = 0,611.

Вероятности состояний после четвертого шага:

p1(4) = p1(3)P11 = 0,0081;

p2(4) = p1(3)Pl2 + p2(3) Р22 = 0,27×0,4+0,148×0,4 = 0,0700;

p3(4) = p1(3)Р13 + р2(3)Р23 + р3(3)P33 = 0,027×0,2 + 0,148×0,4 + 0,214×0,3 = 0,1288;

p4(4) = p1(3)Р14 + р2(3)Р24 + p3(3)Р34 + р4(3) Р44 = 0,027×0,1 +0,148×0,2 + 0,214×0,7 + 0,611×1 = 0,7931. I

Таким образом, нами получены вероятности всех исходов обстрела цели (четырех выстрелов):

— цель не повреждена: р1(4) » 0,008;

— цель получила незначительные повреждения: р2(4) » 0,070;

— цель получила существенные повреждения: р3(4) » 0,129;

— цель поражена полностью: р4(4) » 0,793.

 

Мы рассмотрели однородную марковскую цепь, для кото­рой вероятности перехода от шага к шагу не меняются.

Рассмотрим теперь общий случай - неоднородную мар­ковскую цепь, для которой вероятности перехода Рij меняются от шага к шагу. Обозначим Р - вероятность перехода системы из состояния Si в состояние Sj на k-м шаге, то есть условную вероятность

.

Предположим, что нам заданы матрицы вероятностей перехода на каждом шаге. Тогда вероятность того, что система S после k шагов будет находиться в состоянии Si, выразится формулой:

(i = 1,..., n), (9)

которая отличается от аналогичной формулы (8) для однородной цепи Маркова только тем, что в ней фигурируют вероятности перехода, за­висящие от номера шага k. Вычисления по формуле (9) ничуть не сложнее, чем в случае однородной цепи.

 

Пример 2. Производится три выстрела по цели, которая может быть в тех же четырех состояниях S1, S2, S3, S4, что и в предыдущем примере, но вероят­ности перехода для трех последовательных выстрелов различны и заданы тремя матрицами:

;

;

.

 

В начальный момент цель находится в состоянии S1. Найти вероятности состояний после трех выстрелов.

Решение. Имеем:

pl(l) = 0,3; p2(l) = 0,4; p3(1) = 0,2; Р4(1) = 0,1;

pl (2) = p1(1)P = 0,3×0,1= 0,03;

p2(2) = p1(l)P +p2(1)P =0,3×0,4 + 0,4×0,2 = 0,20;

p3(2) = р1(1) P + p2(1)P + p3(1)P = 0,3×0,3 + 0,4×0,5 + 0,2×0,2 = 0,33;

p4(2) = р1(1) P + p2(1)P + p3(1)P + p4(1)P = 0,3×0,2 + 0,4×0,3 + 0,2×0,8 + 0,1×1=0,44;

pl(3) = pl(2)P = 0,03×0,05 » 0,002;

p2(3) = p1(2)P + p2(2)P = 0,03×0,3 + 0,20×0,1 = 0,029;

p3(3) = p1(2)Р + p2(2)Р + p3(2)Р = 0,3×0,4 + 0,20×0,6 + 0,33×0,1 = 0,165;

р4(3) = pl(2) Р + p2(2) Р + p3(2) Р + p4(2) Р = 0,03×0,25 + 0,20×0,3 + 0,33×0,9 + 0,44×1 » 0,804.

Итак, вероятности состояний после трех выстрелов:

pl(3) » 0,002; р2(3) = 0,029; р3(3) = 0,165; p4 (3) » 0,804.

 

 

УРАВНЕНИЯ КОЛМОГОРОВА

ДЛЯ ВЕРОЯТНОСТЕЙ СОСТОЯНИЙ

 

В предыдущем параграфе мы рассматривали марковскую цепь, т. е. случайный процесс, протекающий в системе, которая случайным образом может переходить из состояния в состояние только в некоторые заранее определенные, фиксированные моменты времени.

На практике значительно чаще встречаются ситуации, когда переходы системы из состояния в состояние происходят не в фиксиро­ванные, а в случайные моменты времени, которые заранее указать не­возможно - переход может осуществиться, вообще говоря, в любой момент. Например, выход из строя (отказ) любого элемента аппаратуры может произойти в любой момент времени; окончание ремонта (восста­новление) этого элемента также может произойти в заранее не зафикси­рованный момент и т. д.

Для описания таких процессов в ряде случаев может быть с успе­хом применена схема марковского случайного процесса с дискретны­ми состояниями и непрерывным временем, который мы будем для крат­кости называть непрерывной цепью Маркова.

 

Покажем, как выражаются вероятности состояний для такого процесса.

Пусть имеется ряд дискретных состояний

S1, S2, …, Sn;

переход (перескок) системы S из состояния в состояние может осуществ­ляться в любой момент времени. Граф состояний системы представлен на рис. 10.

Обозначим рi(t) — вероятность того, что в момент t система S будет находиться в состоянии Si (i = 1, ..., n). Очевидно, для любого мо­мента t сумма вероятностей состояний равна единице:

, (3.1)

так как события, состоящие в том, что в момент t система находится в состояниях Sl, S2, ..., Sn, несовместны и образуют полную группу.

Поставим задачу - определить для любого t вероятности состояний:

p1(t), p2(t), …, pn(t)

 

 

Для того, чтобы найти эти вероятности, необходимо знать харак­теристики процесса, аналогичные переходным вероятностям для мар­ковской цепи. В случае процесса с непрерывным временем нам не при­дется задавать определенные, отличные от нуля, переходные вероят­ности Pij; вероятность перехода (перескока) системы из состояния в со­стояние точно в момент t будет равна нулю (так же как вероятность
любого отдельного значения непрерывной случайной величины). Вмес­то переходных вероятностей Pij мы введем в рассмотрение плот­ности вероятностей перехода lij.

Пусть система S в момент t находится в состоянии Si. Рассмотрим элементарный промежуток времени Dt, примыкающий к моменту t (рис. 11).

Назовем плотностью вероятности перехода lij предел отношения вероятности перехода системы за время Dt из состояния Si в состояние Sj к длине промежутка Dt:

, (3.2)

где Pij(Dt) - вероятность того, что система, находившаяся в момент t в состоянии Si, за время Dt перейдет из него в состояние Sj (плот­ность вероятностей перехода определяется только для i ≠ j)

Из формулы (3.2) следует, что при малом Dt вероятность перехода Pij(Dt) (с точностью до бесконечно малых высших порядков) равна lijDt :

Pij(Dt) ≈ lijDt.

Если все плотности вероятностей перехода lij не зависят от t (т. е. от того, в какой момент начинается элементарный участок Dt), мар­ковский процесс называется однородным; если эти плотности представляют собой какие-то функции времени lij (t)процесс назы­вается неоднородным. При пользовании сокращенным названием «непрерывная марковская цепь» мы также будем различать одно­родные и неоднородные цепи.

Предположим, что нам известны плотности вероятностей пере­хода lij для всех пар состояний Si, Sj.

Построим граф состояний системы S и против каждой стрелки про­ставим соответствующую плотность вероятности перехода (рис 12).

 

 

 

 

Такой граф, с проставленными у стрелок плотностями вероятнос­тей перехода, мы будем называть размеченным графом со­стояний.

Оказывается, зная размеченный граф состояний, можно определить вероятности
состояний:

p1(t), p1(t), … pn(t) (3.3)

как функции времени. А именно, эти вероятности удовлетворяют определенного вида дифференциальным уравнениям, так называемым уравнениям Колмогорова. Решая эти уравнения, мы получим вероятности (3.3).

Продемонстрируем методику вывода уравнений Колмогорова для вероятностей состояний на конкретном примере.

Пусть система S имеет четыре возможных состояния:

S1, S2, S3, S4

размеченный граф состояний системы показан на рис. 13.

 

 

Поставим себе задачу: найти одну из вероятностей состояний, например, p1(t). Это есть вероятность того, что в момент t система будет находиться в состоянии S1.

Придадим малое приращение Dt и найдем вероятность того, что в момент t+Dt система будет находиться в состоянии S1.

Как это событие может произойти? Очевидно, двумя способами:

– в момент t система уже была в состоянии S1 а за время Dt не вышла из этого состояния

или

– в момент tсистема была в состоянии S3, а за время Dt перешла из него в S1.

Вероятность первого варианта найдем как произведение вероят­ности p1(t) того, что в момент t система была в состоянии S1, на услов­ную вероятность того, что, будучи в состоянии S1 система за время Dt не перейдет из него в S2. Эта условная вероятность (с точностью до бесконечно малых высших порядков) равна 1 – l12Dt.

Аналогично, вероятность второго варианта равна вероятности то­го, что в момент t система была в состоянии S3, умноженной на услов­ную вероятность перехода за время Dt в состояние S1:

p3(t)l31Dt.

Применяя правило сложения вероятностей, получим:

p1(t+Dt) = p1(t)(1 – l12Dt) + p3(t)l31Dt.

Раскроем скобки в правой части, перенесем p1(t) в левую и разде­лим обе части равенства на Dt; получим:

Теперь устремим Dt к нулю и перейдем к пределу:

.

Левая часть есть не что иное, как производная функции p1(t):

(3.4)

Таким образом, выведено дифференциальное урав­нение, которому должна удовлетворять функция p1(t). Аналогич­ные дифференциальные уравнения могут быть выведены и для осталь­ных вероятностей состояния: р2(t), р3(t), р4(t).

Рассмотрим второе состояние S2 и найдем р2(t + Dt) – вероят­ность того, что в момент (t+Dt) система S будет находиться в состоя­нии S2. Это событие может произойти следующими способами:

– в момент t система уже была в состоянии S2, а за время Dt не перешла из него ни в S3, ни в S4; или

– в момент t система была в состоянии S3 а за время Dt перешла из него в S2; или

– в момент t система была в состоянии S4, а за время Dt перешла из него в S2.

Вероятность первого варианта вычисляется так: р2(t) умножается на условную вероятность того, что система за Dt не перейдет ни в S3, ни в S4. Так как события, состоящие в переходе за время Dt из S2 в S3 и из S2 в S4, несовместны, то вероятность того, что осуществится один из этих переходов равна сумме их вероятностей, т. е. l23Dt + l24Dt (с точностью до бесконечно малых высших порядков). Вероятность то­го, что не осуществится ни один их этих переходов, равна 1 – l23Dt – l24Dt. Отсюда вероятность первого варианта:

p2(t)(1 – l23Dt – l24Dt).

Прибавляя сюда вероятности второго и третьего вариантов, по­лучим:

p2(t+Dt) = p2(t)(1 – l23Dt – l24Dt) + p1(t)l12Dt + p4(t)l42Dt

Перенося р2(t) в левую часть, деля на Dt и переходя к пределу, получим дифференциальное уравнение для p2(t):

(3.5)

Рассуждая аналогично для состояний S3, S4, получим в результа­те систему дифференциальных уравнений, составленных по типу (3.4) и (3.5). Отбросим в них для краткости аргумент t у функций р1, р2, р3, р4 и перепишем эту систему в виде:

(3.6)

Эти уравнения для вероятностей состояний и называются уравнения­ми Колмогорова.

Интегрирование этой системы уравнений даст нам искомые вероят­ности состояний как функции времени. Начальные условия берутся в зависимости от того, каково было начальное состояние системы S. Например, если в начальный момент времени (при t = 0) система S находилась в состоянии S` то надо принять начальные условия:

при t=0 p1 = 1, р2 = р3 = р4 = 0.

Заметим, что всех четырех уравнений для р1, р2, р3, p4 можно было бы и не писать; действительно, р1 + р2 + р3 + p4 = 1 для всех t и любую из вероятностей р1, р2, р3, p4 можно выразить через три ос­тальные. Например р4 можно выразить через р1, р2, р3 в виде

p4 = l – (р1 + р2 + р3)

и подставить в остальные уравнения. Тогда специального уравнения для вероятности р4 можно и не писать. Однако в дальнейшем нам будет удобнее пользоваться полной системой уравнений типа (3.6).

Обратим внимание на структуру уравнений (3.6). Все они построе­ны по вполне определенному правилу, которое можно сформулировать следующим образом.









Не нашли то, что искали? Воспользуйтесь поиском гугл на сайте:


©2015- 2018 zdamsam.ru Размещенные материалы защищены законодательством РФ.