Определение случайного процесса. Реализация, сечение случайного процесса. И их характеристики

На практике встречаются такие случайные величины, которые в процессе одного опыта непрерывно изменяются в зависимости от времени или каких-нибудь других аргументов. Например, ошибка сопровождения самолёта радиолокатором не остаётся постоянной, а непрерывно изменяется со временем. В каждый момент она случайна, но её значение в разные моменты времени при сопровождении одного самолёта различны. Другими примерами являются: угол упреждения при непрерывном прицеливании по движущейся цели; ошибка радиодальномера при непрерывном измерении меняющейся дальности; отклонение траектории управляемого снаряда от теоретической в процессе управления или самонаведения; флюктуационные (дробовые и тепловые) шумы в радиотехнических устройствах и так далее. Такие случайные величины называются случайными функциями. Характерной особенностью таких функций является то, что вид их до проведения опыта в точности указать не возможно. Случайная функция и случайная величина относятся друг к другу так же, как функция и постоянная величина, рассматриваемые в математическом анализе.

Определение 1. Случайная функция – это функция, которая каждому исходу опыта ставит в соответствие некоторую числовую функцию, то есть отображение пространства Ω в некоторое множество функций (рисунок 1).

Определение 2. Случайной функцией называется функция, которая в результате опыта может принять тот или иной конкретный вид, неизвестно заранее – какой именно.


Конкретный вид, принимаемый случайной функцией в результате опыта, называется реализацией случайной функции.

В силу непредсказуемости поведения изобразить случайную функцию в общем виде на графике не представляется возможным. Можно лишь записать её конкретный вид – то есть её реализацию, полученную в результате проведения опыта. Случайные функции, как и случайные величины, принято обозначать большими буквами латинского алфавита X (t ), Y (t ), Z (t ), а их возможные реализации – соответственно x (t ), y (t ), z (t ). Аргумент случайной функции t в общем случае может быть произвольной (не случайной) независимой переменной или совокупностью независимых переменных.

Случайную функцию называют случайным процессом , если аргументом случайной функции является время. Если же аргумент случайной функции является дискретным, то её называют случайной последовательностью. Например, последовательность случайных величин есть случайная функция от целочисленного аргумента. На рисунке 2 в качестве примера приведены реализации случайной функции X (t ): x1 (t ), x2 (t ), … , xn (t ), которые являются непрерывными функциями времени. Такие функции применяются, например, для макроскопического описания флюктуационных шумов.

Случайные функции встречаются в любом случае, когда имеем дело с непрерывно работающей системой (системой измерения, управления, наведения, регулирования), при анализе точности работы системы приходится учитывать наличие случайных воздействий (полей); температура воздуха в различных слоях атмосферы рассматривается как случайная функция высоты H; положение центра масс ракеты (его вертикальная координата z в плоскости стрельбы) является случайной функцией от его горизонтальной координаты x . Это положение в каждом опыте (пуске) при одних и тех же данных наводки всегда несколько иное и отличается от теоретически рассчитанного.

Рассмотрим некоторую случайную функцию X (t ). Предположим, что над ней произведено n независимых опытов, в результате которых получено n реализаций (рисунок 3) x1 (t ), x2 (t ), … , xn (t ). Каждая реализация, очевидно, есть обычная (неслучайная) функция. Таким образом, в результате каждого опыта случайная функция X (t ) превращается в обычную, неслучайную функцию.

Зафиксируем некоторое значение аргумента t . Проведём на расстоянии

t = t0 прямую, параллельную оси ординат (рисунок 3). Эта прямая пересечёт реализации в каких-то точках.

Определение . Множество точек пересечения реализаций случайной функции с прямой t = t0 называется сечением случайной функции.

Очевидно, сечение представляет собой некоторую случайную величину , возможные значения которой представляют собой ординаты точек пересечения прямой t = t0 с реализациями xi (t ) (i = ).

Таким образом, случайная функция совмещает в себе черты случайной величины и функции. Если зафиксировать значение аргумента, она превращается в обычную случайную величину; в результате каждого опыта она превращается в обычную (неслучайную) функцию.

Например, если провести два сечения t = t1 и t = t2 , то получается две случайные величины X (t1 ) и X (t2 ), которые в совокупности образуют систему двух случайных величин.

2 Законы распределения

Случайная функция непрерывно изменяющегося аргумента на любом сколь угодно малом интервале его изменения равноценна бесконечному, несчётному множеству случайных величин, которые даже невозможно перенумеровать. Поэтому для случайной функции невозможно обычным путём определить закон распределения, как для обычных случайных величин и случайных векторов. Для изучения случайных функций применяют подход, основанный на фиксации одного или нескольких значений аргумента t и изучении получающихся при этом случайных величин, то есть случайные функции изучаются в отдельных сечениях, соответствующих различным значениям аргумента t .


Фиксируя одно значение t1 аргумента t , рассмотрим случайную величину X1 = X (t1 ). Для этой случайной величины можно определить обычным путём закон распределения, например, функцию распределения F1 (x1 , t1 ), плотность вероятности f1 (x1 , t1 ). Эти законы называются одномерными законами распределения случайной функции X ( t ). Особенностью их является то, что они зависят не только от возможного значения x 1 случайной функции X (t ) при t = t1 , но и от того, как выбрано значение t1 аргумента t , то есть законы распределения случайной величины X1 = X (t1 ) зависят от аргумента t1 как от параметра.

Определение . Функция F1 (x1 , t1 ) = Р(X (t1 )< x1 ) называется одномерной функцией распределения вероятностей случайной функции, или

F1 (x , t ) = Р(X (t )< x ) . (1)

Определение . Если функция распределения F1 (x1 , t1 ) = Р(X (t1 )< x1 ) дифференцируема по x1 то эта производная называется одномерной плотностью распределения вероятности (рисунок 4), или

. (2)

Одномерная плотность распределения случайной функции обладает теми же свойствами, что и плотность распределения случайной величины. В частности: 1) f 1 (x, t ) 0 ;

2) https://pandia.ru/text/78/405/images/image009_73.gif" width="449" height="242">

Одномерные законы распределения не описывают полностью случайную функцию, так как они не учитывают зависимости между значениями случайной функции в разные моменты времени.

Так как при фиксированном значении аргумента t случайная функция превращается в обычную случайную величину, то при фиксировании n значений аргумента получим совокупность n случайных величин X (t1 ), X (t2 ), …, X (tn ), то есть систему случайных величин. Поэтому задание одномерной плотности распределения f1 (x , t ) случайной функции X (t ) при произвольном значении аргумента t аналогично заданию плотностей отдельных величин входящих в систему. Полным описанием системы случайных величин является совместный закон их распределения. Поэтому более полной характеристикой случайной функции X (t ) является n-мерная плотность распределения системы, то есть функция fn (x1 , x2 , … , xn , t1 , t2 , … , tn ).

На практике нахождение n - мерного закона распределения случайной функции вызывает, как правило, большие затруднения, потому обычно ограничиваются двумерным законом распределения, который характеризует вероятностную связь между парами значений X ( t1 ) и X ( t2 ).

Определение . Двумерной плотностью распределения случайной функции X (t ) называется совместная плотность распределения её значений X (t1 ) и X (t2 ) при двух произвольно взятых значениях t 1 и t2 аргумента t .

f2 (x1 , x2 , t1 , t2 )= (3)

https://pandia.ru/text/78/405/images/image012_54.gif" width="227" height="49">. (5)

Условие нормировки для двумерной плотности распределения имеет вид

. (6)

3 Характеристики случайного процесса:

математическое ожидание и дисперсия

При решении практических задач в большинстве случаев получение и использование многомерных плотностей для описания случайной функции сопряжено с громоздкими математическими преобразованиями. В связи с этим при исследовании случайной функции чаще всего пользуются простейшими вероятностными характеристиками, аналогичными числовым характеристикам случайных величин (математическое ожидание, дисперсия) и устанавливаются правила действия с этими характеристиками.

В отличие от числовых характеристик случайных величин, которые являются постоянными числами , характеристики случайной функции являются неслучайными функциями его аргументов.

Рассмотрим случайную функцию X (t ) при фиксированном t . В сечении имеем обычную случайную величину. Очевидно, в общем случае математическое ожидание зависит от t , то есть представляет собой некоторую функцию t :

. (7)

Определение . Математическим ожиданием случайной функции X (t ) называется неслучайная функция https://pandia.ru/text/78/405/images/image016_47.gif" width="383" height="219">

Для вычисления математического ожидания случайной функции достаточно знать её одномерную плотность распределения

Математическое ожидание называют также неслучайной составляющей случайной функции X (t ), в то время как разность

(9)

называют флюктуационной частью случайной функции или центрированной случайной функцией.

Определение . Дисперсией случайной функции X (t ) называется неслучайная функция , значение которой для каждого t равно дисперсии соответствующего сечения случайной функции.

Из определения следует, что

Дисперсия случайной функции при каждом характеризует разброс возможных реализаций случайной функции относительно среднего, иными словами, «степень случайности» случайной функции (рисунок 6).

Применение общих определений, приведенных в предыдущем параграфе, иллюстрируется ниже на нескольких характерных случайных процессах.

Наряду с обозначением случайного процесса символом будет применяться в том же смысле обозначение под которым подразумевается случайная функция времени. Как и ранее, обозначает реализацию случайной функции

1. ГАРМОНИЧЕСКОЕ КОЛЕБАНИЕ СО СЛУЧАЙНОЙ АМПЛИТУДОЙ

Пусть в выражении, определяющем сигнал

частота и начальная фаза являются детерминированными и постоянными величинами, а амплитуда А - случайная, равновероятная в интервале от 0 до величина (рис. 4.2).

Найдем одномерную плотность вероятности для фиксированного момента времени . Мгновенное значение может быть любым в интервале от 0 до причем будем считать, что . Следовательно,

Рис. 4.2. Совокупность гармонических колебаний со случайной амплитудой

Рис. 4.3. Плотность вероятности гармонического колебания со случайной амплитудой

График функции для фиксированного значения представлен на рис. 4.3.

Математическое ожиданир

Наконец, дисперсия

Рассматриваемый случайный процесс нестационарный и неэргодический.

2. ГАРМОНИЧЕСКОЕ КОЛЕБАНИЕ СО СЛУЧАЙНОЙ ФАЗОЙ

Пусть амплитуда и частота гармонического сигнала заранее достоверно известны, а начальная фаза - случайная величина, которая с одинаковой вероятностью может принимать любое значение в интервале от до . Это означает, что плотность вероятности начальной фазы

Рис. 4.4. Совокупность гармонических колебаний со случайными фазами

Одну из реализаций случайного процесса образуемого совокупностью гармонических колебаний со случайными фазами (рис. 4.4), можно определить выражением

(4.23)

Полная фаза колебания является случайной величиной, равновероятной в интервале от до . Следовательно,

Рис. 4.5. К определению плотности вероятности гармонического колебания со случайной фазой

Рис. 4.6. Плотность вероятности гармонического колебания со случайной фазой

Найдем одномерную плотность вероятности случайного процесса . Выделим интервал (рис. 4.5) и определим вероятность того, что при измерении, проведенном в промежутке времени от до мгновенное значение сигнала окажется в интервале Эту вероятность можно записать в виде , где - искомая плотность вероятности. Очевидно, что вероятность совпадает с вероятностью попадания случайной фазы колебаний в один из двух заштрихованных на рис. 4.5 фазовых интервалов. Эта последняя вероятность равна Следовательно,

откуда искомая функция

Таким образом, окончательно

График этой функции изображен на рис. 4.6.

Существенно, что одномерная плотность вероятности не зависит от выбора момента времени t, а среднее по множеству (см. (2.271.7) в )

совпадает со средним по времени

(Это справедливо для любой реализации рассматриваемого случайного процесса.)

Корреляционную функцию в данном случае можно получить усреднением произведения по множеству без обращения к двумерной плотности вероятности [см. общее выражение (4.8)]. Подставляя в (4.8)

а также учитывая, что первое слагаемое является детерминированной величиной, а второе слагаемое при статистическом усреднении с помощью одномерной плотности вероятности [см. (4.22)] обращается в нуль, получаем

Такой же результат получается и при усреднении произведения по времени для любой реализации процесса.

Независимость среднего значения от и корреляционной функции от положения интервала - на оси времени позволяет считать рассматриваемый процесс стационарным. Совпадение же результатов усреднения по множеству и времени (для любой реализации) указывает на эргодичность процесса. Аналогичным образом нетрудно показать, что гармоническое колебание со случайной амплитудой и случайной фазой образует стационарный, но не эргодический процесс (различные реализации обладают неодинаковой дисперсией).

3. ГАУССОВСКИЙ СЛУЧАЙНЫЙ ПРОЦЕСС

Нормальный (гауссовский) закон распределения случайных величин чаще других встречается в природе. Нормальный процесс особенно характерен для помех канала связи. Он очень удобен для анализа. Поэтому случайные процессы, распределение которых не слишком сильно отличается от нормального, часто заменяют гауссовским процессом. Одномерная плотность вероятности нормального процесса определяется выражением

В данном параграфе рассматривается стационарный и эргодический гауссовский процесс. Поэтому под можно подразумевать соответственно постоянную составляющую и среднюю мощность флуктуационной составляющей одной (достаточно длительной) реализации случайного процесса.

Графики плотности вероятности при нормальном законе для некоторых значений изображены на рис. 4.7. Функция симметрична относительно среднего значения. Чем больше тем меньше максимум, а кривая становится более пологой [площадь под кривой равна единице при любых значениях ].

Широкое распространение нормального закона распределения в природе объясняется тем, что при суммировании достаточно большого числа независимых или слабо зависимых случайных величин распределение суммы близко к нормальному при любом распределении отдельных слагаемых.

Это положение, сформулированное в 1901 г. А. М. Ляпуновым, получило название центральной предельной теоремы.

Наглядными физическими примерами случайного процесса с нормальным законом распределения являются шумы, обусловленные тепловым движением свободных электронов в проводниках электрической цепи как дробовым эффектом в электронных приборах (см. § 7.3.).

Рис. 4.7. Одномерная плотность вероятности нормального распределения

Рис. 4.8. Случайные функции с одинаковым распределением (нормальным), но с различными частотными спектрами

Не только шумы и помехи, но и полезные сигналы, являющиеся суммой большого числа незавнси случайных элементарных сигналов, например гармонических колебаний со случайной фазой или амплитудой, часто можно трактовать гауссовские случайные процессы.

На основе функции можно найти относительное время пребывания сигнала в определенном интервале уровней, отношение максимальных значений к среднеквадратическому (пикфактор) и ряд других важных для практики параметров случайного сигнала. Поясним это на примере одной из реализаций гауссовского процесса, изображенной на рис. 4.8, а для Эта функция времени соответствует шумовой помехе, энергетический спектр которой простирается от нулевой частоты до некоторой граничной частоты. Вероятность пребывания значения х(t) в интервале от а до b определяется выражением (4.1). Подставляя в это выражение (4.28), при получаем

Различают нестационарные, стационарные и эргодические случайные процессы. Наиболее общий случайный процесс – нестационарный.

Случайный процесс является стационарным , если его многомерная плотность вероятности зависит только от величины интервалов и не зависит от положения этих интервалов в области изменения аргумента . Отсюда следует, что во-первых, для стационарного процесса одномерная плотность вероятности не зависит от времени, т.е. ; во-вторых, двумерная плотность вероятности зависит от разности , т.е. и т.д. В связи с этим все моменты одномерного распределения, в том числе математическое ожидание и дисперсия, постоянны. Часто бывает достаточно для определения случайного процесса стационарным постоянство первых двух моментов. Таким образом для стационарного процесса:

Стационарный случайный процесс называется эргодическим , если при определении любых статистических характеристик усреднение по множеству реализаций эквивалентно усреднению по времени одной бесконечно длинной реализации; в этом случае

Широкое практическое использование при исследовании состояния разных технических объектов получили три типа случайных процессов - гауссовский, стационарный и марковский.

Гауссовский случайный процесс - это случайный процесс X(t), распределение вероятностей параметров которого подчиняется нормальному закону. Математическое ожидание (среднее значение)М[Х(t)] и корреляционная функция K х (t 1 ,t 2) однозначно определяют распределение его параметров, следовательно, и процесс в целом.

Стационарный случайный процесс (однородный во времени случайный процесс) - это такой случайный процесс X(t), статистические характеристики которого постоянны во времени, то есть инвариантны к кратковременным возмущениям: t → t + τ, X(t) → X(t + τ) при любом фиксированном значении τ. Процесс полностью определяется математическим ожиданием M и корреляционной функцией

К х (t,τ) = M.

Марковский случайный процесс - это такой случайный процесс, при котором вероятность нахождения системы в каком-либо состоянии в будущем зависит от того, в каком состоянии система находится в заданный момент времени и не зависит от того, каким путем система перешла в это состояние. Короче - «будущее» и «прошлое» процесса при известном его «настоящем» не связаны друг с другом. Часто марковский процесс характеризуется вероятностями перехода системы из одного состояния в другое (переходными вероятностями).

Изменение технического состояния системы

Как уже говорилось, задача прогнозирования технического состояния, в самом общем понимании, представляет собой получение некоторых вероятностных характеристик работоспособности системы в будущем на основе данных контроля ее настоящего и прошедших состояний.

В зависимости от того, какая характеристика случайного процесса определяется при прогнозировании, различают прогнозирование надежности (определение условной плотности вероятности безотказной работы системы после контроля) и прогнозирование технического состояния (определение условной плотности распределения вероятностей значений определяющего параметра) на основе прошлых и настоящего состояний. На рис 8.1 проиллюстрирована разница между этими характеристиками. На этом рисунке x(t) - отрезок реализации случайного процесса X(t), описывающий изменение во времени некоторого определяющего параметра системы, имеющего допустимые границы (а, b) изменения. Отрезок реализации получен в результате наблюдения за конкретным экземпляром системы из заданного класса систем на интервале времени (0, t k 2). В момент t k 2 был осуществлен последний контроль системы, и на его основе необходимо решить - пригодна ли система к эксплуатации до наступления очередного момента контроля t k 3 .



рис. 8.1 Условная плотность вероятности безотказной работы р{x(t)} и f{(x(t)} условная плотность распределения вероятностей значений определяющего параметра

В связи с тем, что внешние воздействия, воспринимаемые системой, имеют случайный характер, случайный процесс после момента t k 2 может изменяться по разному (см. пунктирные линии на рис. 8.1). Процесс, являющийся продолжением некоторого исходного процесса при условии, что на интервале (0,t k 2) его реализация имела конкретный вид х(t), называется условным , или апостериорным , случайным процессом:

Х ps (t)=x. (8.5)

Следовательно, для принятия обоснованного решения о назначении срока очередного контроля системы необходимо знать характеристики апостериорного случайного процесса. Пригодной для выполнения задачи будет считаться система, определяющие параметры которой находятся в допустимых границах (а, b) в момент предыдущего контроля и не выйдут из этих границ до конца заданного срока функционирования. Поскольку выход определяющих параметров за допустимые границы является случайным событием, то оценкой работоспособности системы может быть условная вероятность безотказной ее работы после контроля. Это вероятность того, что случайный процесс ни разу не пересечет границу (a, b) после момента контроля; ее называют прогнозированной надежностью системы и обозначают

P{x(t)=<<(ba)/X(t)=x(t), 0<

Таким образом, прогнозированием надежности называется определение условной вероятности безотказной работы системы при условии, что в момент контроля она находилась в некотором фиксированном работоспособном состоянии.

Наиболее полной характеристикой будущего технического состояния системы является условная плотность распределения вероятностей ее определяющих параметров, то есть будущих значений случайного процесса

f{x(t k 3)/X(t)=x(t), 0<

при условии, что на интервале (0,t k 3) реализация процесса имела конкретный вид (рис. 8.1).

1.1.1. Гауссовские случайные процессы

гауссовским , если все его конечномерные распределения являются нормальными, то есть

t 1 ,t 2 ,…,t n T

случайный вектор

(X(t 1);X(t 2);…;X(t n))

имеет следующую плотность распределения:

,

где a i =MX(t i); =M(X(t i)-a i) 2 ; с ij =M((X(t i)-a i)(X(t j)-a j));
;

-алгебраическое дополнение элемента с ij .

1.1.2. Случайные процессы с независимыми приращениями

с независимыми приращениями , если его приращения на непересекающихся временных промежутках не зависят друг от друга:

t 1 ,t 2 ,…,t n T:t 1 ≤t 2 ≤…≤t n ,

случайные величины

X(t 2)-X(t 1); X(t 3)-X(t 2); …; X(t n)-X(t n-1)

независимы.

1.1.3. Случайные процессы с некоррелированными приращениями

Случайный процесс X(t) называется процессомс некоррелированными приращениями, если выполняются следующие условия:

1) tT: МX 2 (t) < ∞;

2) t 1 ,t 2 ,t 3 ,t 4 T:t 1 ≤t 2 ≤t 3 ≤t 4: М((X(t 2)-X(t 1))(X(t 4)-X(t 3)))=0.

1.1.4. Стационарные случайные процессы (см. Глава 5)

1.1.5. Марковские случайные процессы

Ограничимся определением марковского случайного процесса с дискретными состояниями и дискретным временем (цепь Маркова).

Пусть система А может находиться в одном из несовместных состояний А 1 ; А 2 ;…;А n , и при этом вероятность Р ij ( s ) того, что в s -ом испытании система переходит из состояния в состояние А j , не зависит от состояния системы в испытаниях, предшествующих s -1-ому. Случайный процесс данного типа называется цепью Маркова.

1.1.6. Пуассоновские случайные процессы

Случайный процесс X(t) называетсяпуассоновским процессом с параметром а (а>0), если он обладает следующими свойствами:

1) tT; Т=}

Если вы нашли ошибку, пожалуйста, выделите фрагмент текста и нажмите Ctrl+Enter.