Вероятностные характеристики сигналов. Вероятностные матричные (нечеткие) переходы в автомате А Вероятностные характеристики случайных сигналов

Измерительные сигналы, являясь случайными сигналами, не могут быть описаны математической функцией времени с полной определенностью.

В соответствии с этим можно говорить лишь о вероятности появления в каждый данный момент того или иного значения сигнала .

При подобном подходе объектом изучения становятся не характеристики конкретного сигнала, а вероятностные статистические характеристики совокупности сигналов электросвязи того или иного вида связи .

К статистическим характеристикам случайного сигнала s (t ) относятся:

среднее значение (постоянная составляющая)

где Т - время наблюдения случайного процесса;

мгновенная мощность случайного сигнала s (t )в момент t по определению равен

энергия случайного сигнала s (t )равна интегралу от мощности по всему интервалу времени существования или задания сигнала. В пределе:

средняя мощность случайного сигнала s (t ) в интервале t 2 –t 1

Понятие средней мощности может быть распространено и на случай неограниченного интервала Т = t 2 – t 1 ⟹∞. Строго корректное определение средней мощности сигнала должно производиться по формуле:

Квадратный корень из значения средней мощности характеризует действующее (среднеквадратическое) значение сигнала (220 В – действующее значение гармонического колебания с амплитудой 380 В).

Применительно к электрофизическим системам, данным понятиям мощности и энергии соответствуют вполне конкретные физические величины. Допустим, что функцией s(t) отображается электрическое напряжение на резисторе, сопротивление которого равно R Ом. Тогда рассеиваемая в резисторе мощность, как известно, равна (в вольт-амперах):

w(t) = |s(t)| 2 /R,

В теории сигналов в общем случае сигнальные функции s(t) не имеют физической размерности, и могут быть формализованным отображением любого процесса или распределения какой-либо физической величины, при этом понятия энергии и мощности сигналовиспользуются в более широком смысле, чем в физике . Они представляют собой метрологические характеристики сигналов

Если в выражении для энергии

взять не квадрат модуля сигнала, а произведение сигнала и его же, но смещенного на время τ, то получится автокорреляционная функция

В случае периодических сигналов АКФ вычисляется по одному периоду Т, с усреднением скалярного произведения и его сдвинутой копии в пределах периода:

Энергетический спектр (спектральная плотность средней мощности)

Функция G (ω )представляет собой спектральную плотность средней мощности процесса, т. е. мощность, заключенную в бесконечно малой полосе частот.

Мощность, заключенную в конечной полосе частот между ω 1 и ω 2 определяют интегрированием функции G (ω ) в соответствующих пределах:

3.3. Динамический диапазон и пик-фактор сигналов .

Мгновенная мощность сигналов связи может принимать различные значения в самых широких пределах. Чтобы охарактеризовать эти пределы вводят понятия динамического диапазона и пик-фактора сигнала .

Динамический диапазон сигнала дБ, определяется выражением

где W тах и W min - максимальное и минимальное значения мгновенной мощности.

Под W тах обычно понимают значение мгновенной мощности сигнала, вероятность превышения которого достаточно мала (например, равна 0,01). О величине этой вероятности условливаются для каждого конкретного сигнала.

Пик-фактором сигнала называют отношение его максимальной мощности к средней. В логарифмических единицах

В некоторых случаях динамический диапазон и пик-фактор определяют не в логарифмических, а в абсолютных единицах (в «разах»).

МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РФ

НОВОСИБИРСКИЙ ГОСУДАРСТВЕННЫЙ ТЕХНИЧЕСКИЙ
УНИВЕРСИТЕТ

ФАКУЛЬТЕТ АВТОМАТИКИ И ВЫЧИСЛИТЕЛЬНОЙ ТЕХНИКИ

Кафедра Систем Сбора и Обработки Данных

ЛАБОРАТОРНАЯ РАБОТА № 12

СЛУЧАЙНЫЕ СИГНАЛЫ И ИХ ХАРАКТЕРИСТИКИ

Группа: АТ-73 Преподаватель: доц. Щетинин Ю.И.

Студент: Витенкова С.Е.

Новосибирск

Цель работы: изучение основных характеристик стационарных случайных сигналов (среднего значения, автокорреляционной функции, спектральной плотности мощности) и приобретение практических навыков их вычисления и анализа в среде Matlab.

1. Генерация 500 отсчётов случайного сигнала X с нулевым математическим ожиданием и единичной дисперсией и вычисление оценок среднего и дисперсии для X .

Воспользуемся следующим script-файлом для генерации 500 отсчётов случайного сигнала X с нулевым математическим ожиданием и единичной дисперсией и построения графика X .

Полученный график представлен на рис. 1.

Рис. 1. График случайного сигнала X .

Случайные процессы могут характеризоваться математическим ожиданием и дисперсией. Математическим ожиданием называется среднее значение случайной величины, а дисперсия характеризует рассеяние сигнала относительно его среднего значения.

Данные характеристики можно приближённо определить, зная N отсчётов сигнала, с помощью выражений (1) и (2).

(1)

(2)

Воспользуемся пользовательскими функциями dispersiya () и ozhidanie() для определения оценок математического ожидания и дисперсии по выражениям (1) и (2).

function D = dispersiya(y)

% дисперсия

m = ozhidanie(y);

D = sum((y - m).^2)/(length(y)-1);

function m = ozhidanie(y)

% математическое ожидание

m = sum(y)/length(y);

Получим значения оценок:

При генерации были заданы нулевое математическое ожидание и единичная дисперсия. Видим, что полученные значения оценок близки к заданным. Причиной их неполного совпадения является то, что для получения оценок была использована конечная выборка из N отсчётов, а оценки сходятся к истинным значениям при .

2. Построение графика плотности вероятности и гистограммы сигнала X .

С помощью следующего script-файла построим график плотности вероятности нормальной случайной величины (по выражению (3)) и график гистограммы сигнала X с помощью функции hist () .

(3)

f = (exp(-(x-m).^2/(2*D)))/(sqrt(2*pi*D));

title("График плотности распределения вероятности");

set(gca,"FontName", "Times New Roman","FontSize", 10);

title("Гистограмма случайного сигнала X");

Полученные графики представлены на рис. 2.

Рис. 2. График плотности распределения

вероятности и гистограммы.

Видим, что гистограмма случайного сигнала X сходна по форме с графиком плотности распределения вероятности. Они не совпадают полностью, т.к. для построения гистограммы была использована конечная выборка из N отсчётов. Гистограмма сходится к графику плотности распределения вероятности при .

3. Определение АКФ выходного сигнала системы аналитически и используя функцию conv().

Одной из характеристик случайного сигнала является его автокорреляционная функция (АКФ), которая определяется выражением (4).

АКФ определяет степень зависимости отсчетов сигнала, разделенных друг от друга интервалом m .

Белым шумом называется случайный процесс, АКФ которого равна нулю для любого , т.е. значения, разделенные интервалом m не зависят друг от друга. АКФ белого шума при определяется выражением (5).

Связь между АКФ дискретного выходного и входного сигналов системы определяется выражением

Используя выражение (6), определим АКФ выходного сигнала системы с уравнением при подаче на вход системы белого шума.

Определим импульсную характеристику заданной системы, подав на её вход единичный дельта-импульс .

Рис. 3. Графики , , .

При АКФ белого шума равна . Свёртка любого сигнала с единичным импульсом даёт исходный сигнал, значит, .

Пользуясь геометрическим смыслом операции свёртки, найдём .

Рис. 4. График АКФ выходного сигнала системы

при подаче на вход белого шума.

Видим, что по сравнению с АКФ входного сигнала в выходном появились ненулевые составляющие при , т.е. выходной сигнал является коррелированным процессом в отличие от входного белого шума.

Определим АКФ выходного сигнала системы при подаче на вход случайного сигнала X , определённого в п.1.

Оценку АКФ сигнала X можно определить по выражению

Оценку АКФ, определяемую выражением (7) можно вычислить с помощью функции xcorr () Matlab. Пользуясь данной функцией, найдём оценку АКФ сигнала X и построим график этой оценки.

Xcorr(X, "biased");

stem(lags, Kxx);

set(gca,"FontName", "Times New Roman Cyr", "FontSize", 10)

title("Оценка АКФ сигнала X");

Рис. 5. График оценки АКФ случайного сигнала X .

Видим, что оценка сигнала X АКФ близка к АКФ белого шума (рис. 3), значит, связь между различными значениями сигнала X мала. Наличие составляющих при объясняется конечностью выборки.

Используя функцию conv() Matlab, определим АКФ выходного сигнала по выражению (6).

h1 = ;

h2 = ;

c = conv(h1,h2);

Kyy = conv(c, Kxx);

stem(-(N+3):(N+3), Kyy)


Рис. 6. АКФ выходного сигнала при подаче на вход сигнала X .

На увеличенном фрагменте рис. 6 можно видеть, что значения АКФ выходного сигнала при входном сигнале X близки к значениям АКФ выходного сигнала при подаче на вход белого шума (рис. 4).

С помощью следующей последовательности команд построим графики АКФ входного и выходного сигналов для их сравнения.

stem(lags, Kxx);

set(gca,"FontName", "Times New Roman Cyr", "FontSize", 10)

title("Оценка АКФ сигнала X");

stem(-(N+3):(N+3), Kyy)

set(gca,"FontName", "Times New Roman Cyr", "FontSize", 10)

title("АКФ выходного сигнала");

Рис. 7. Графики АКФ входного и выходного сигналов фильтра.

На рис. 7 видим, что выходной сигнал более коррелирован, чем входной, т.к. присутствует большее число ненулевых составляющих и между значениями выходного сигнала есть зависимость.

4. Построение диаграмм рассеивания выходного сигнала Y системы.

Случайные сигналы

Тест № 2

Вопросы для самопроверки

1. Объясните причину возникновения искажений в передаче сообщений, наблюдаемых при перемодуляции.

2. Чем определяется распределение мощности в спектре АМ сигнала?

3. Почему непосредственная демодуляция ОБП сигнала приводит к искажению передаваемого сообщения?

4. Укажите сходства и различия между сигналами с частотной и фазовой модуляцией.

5. Как связаны между собой частота модуляции, ее индекс и девиация частоты?

6. Объясните различие между спектрами АМ и ЧМ сигналов.

7. Укажите особенности модуляции цифровых сигналов.

1. Модуляцией называется процесс:

a. Суммирования низкочастотного информационного сигнала и высокочастотного несущего колебания;

b. Изменения одного из параметров высокочастотного колебания под воздействием низкочастотного сигнала, отображающего передаваемое сообщение;

c. Перемножения низкочастотного информационного сигнала и высокочастотного несущего колебания;

d. Выделения модуля комплексного сигнала.

2. Амплитудной модуляцией называется процесс изменения амплитуды:

b. Сигнала при изменении его частоты;

c. Сигнала при его прохождении через линейный четырехполюсник;

d. Высокочастотного несущего колебания по закону передаваемого сообщения.

3. Частотной модуляцией называется процесс изменения частоты:

a. Сигнала при изменении его фазы;

4. Фазовой модуляцией называется процесс изменения фазы:

a. Сигнала при изменении его частоты;

b. Сигнала при изменении его амплитуды;

c. Высокочастотного несущего колебания по закону передаваемого сообщения;

d. Сигнала при его прохождении через нелинейный четырехполюсник.

5. Спектр амплитудно-модулированного сигнала состоит из:

a. Частоты несущего колебания и двух боковых полос;

b. Частоты несущего колебания и одной боковой полосы;

c. Частоты несущего колебания и кратных частот;

d. Только из боковых полос.

Случайный процесс (СП) – совокупность (ансамбль) функций времени, подчиняющийся некоторой общей для них статистической закономерности. Бывают непрерывные, дискретные, квантованные и цифровые СП.

Если взять конкретные значения t 1 , то, усреднив их, можно получить математическое ожидание.

F(x) – интегральный закон распределения. Он показывает вероятность того, что произвольно взятое Х будет меньше х .



Плотность распределения величины показывает, какова наибольшая вероятность попадания в заданный интервал.

На практике наиболее значимыми являются следующие параметры СП.

Математическое ожидание – величина, к которой в среднем стремится СП:

Дисперсия характеризует мощность процесса, разброс случайных значений относительно математического ожидания

Среднеквадратическое отклонение характеризует линейный разброс, а не квадратичный, как дисперсия:

Для дискретных сигналов каждое значение возможно с вероятностью р к, но .

Свойства

1. Если х 1 >х 2 , то F(x 1)>F(x 2 ).

2. F (-¥)=0, F (+¥)=1.

3. Если х ® -¥ (х ® +¥), то f(x )®0.

4. –– площадь плотности вероятности всегда равна 1.

1. Особенности исследования САУ при случайных воздействиях

При детерминированных заранее заданных воздействиях состояние САУ в любой момент t определяется начальным состоянием системы в некоторый момент времени t0 и приложенными к системе воздействиями. Эта задача определяется решением соответствующего дифференциального уравнения

anx (n)+an-1x(n-1)+…+a0x=bmg(m)+bm-1g(m-1)+…+b0g. (26.1)

Если ai, bj - постоянные коэффициенты, а g - определенная функция времени, то решение этого уравнения для заданных начальных условий будет единственным и определенным для всего интервала времени.

Однако в реальных условиях часто внешние воздействия изменяются случайно, т.е. заранее не предвиденным образом. Например:

суточные изменения нагрузки энергосистемы;

порывы ветра, действующие на самолет;

удары волны в гидродинамических системах;

сигналы радиолокационных установок;

шумы в радиотехнических устройствах и т.д.

Случайные воздействия могут прикладываться к системе извне (внешние воздействия) или возникать внутри некоторых ее элементов (внутренние шумы).

Очевидно, если в уравнении (26.1) g - входное воздействие заранее не определено, т.е. является случайной функцией, или параметры системы ai, bj изменяются случайным образом, то получить решение этого уравнения в детерминированном (т.е. определенном) виде невозможно.

Конечно, можно задаться некоторыми максимальными значениями этих параметров и решить поставленную задачу (расчет системы на заданную точность при максимальных значениях случайных воздействий). Но поскольку максимальные значения случайной величины наблюдаются редко, то в этом случае к системе будут предъявлены заведомо более жесткие требования, чем это вызывается реальностью.

Правда, такой подход иногда является единственно возможным(высокоточное производство, иначе – брак). Поэтому в большинстве случаев расчет системы при случайных воздействиях ведут не по максимальному, а по наиболее вероятному значению случайных величин, т.е. по такому значению, которое встречается наиболее часто.

В этом случае получают наиболее рациональное техническое решение (меньший коэффициент усиления системы, меньшие габариты отдельных устройств, меньшее потребление энергии), хотя для маловероятных значений задающего воздействия будет иметь место ухудшение работы системы.

Расчет САУ при случайных воздействиях с помощью специальных статистических методов, которые оперируют статистическими характеристиками случайных воздействий, являющихся не случайными, а детерминированными величинами.

САУ, спроектированная на основе статистических методов, будет обеспечивать соответствующие требования не для одного, детерминированного воздействия, а для целой совокупности этих воздействий, заданных с помощью статистических характеристик (если ошибка САУ носит случайный характер, то точное ее значение в какой-либо момент времени при статистическом расчете получить невозможно).

Статистические методы расчета САУ основаны на расчетах и работах советских ученых: Хинчина А.Я., Колмогорова А.Н., Гнеденко В.В., Солодовникова В.В., Пугачева В.С., Казакова И.Е. и др., а также зарубежных ученых – Н. Винера, Л. Заде, Дж. Рагоцине, Калмана, Бьюси и др.

2. Краткие сведения о случайных процессах.

Случайной функцией называется функция, которая при каждом значении независимой переменной является случайной величиной. Слу­чайные функции, для которых независимой переменной является время t,называют случайными процессами. Так как в САУ процессы протекают во времени, то в дальнейшем будем рассматривать только случайные процессы.

Случайный процесс x(t) не есть определенная кривая, он явля­ется множеством определенных кривых x i (t) (i=1,2,…,n), по­лучаемых в результате отдельных опытов (рис.26.1). Каждую кривую этого множества называют реализацией случайного процесса, и сказать, по какой из реализаций пойдет процесс, невозможно.

Рис. 26.1. Графики реализаций и математического ожидания случайного процесса

Для случайного процесса, как и для случайной величины, для определения статистических свойств вводят понятие функции распре­деления (интегральный закон распределения) F(x, t) и плотнос­ти вероятности (дифференциальный закон распределения) w(x, t). Данные характеристики зависят от фиксированного момента времени наблюдения t и от некоторого выбранного уровня x, то есть явля­ются функциями двух переменных - x, и t.

Функции F(x, t) и w(x, t) являются простейшими статис­тическими характеристиками случайного процесса. Они характеризуют случайный процесс изолированно в отдельных сечениях, не раскрывая связи между сечениями случайного процесса.

К основным характеристикам случайных процессов, наиболее ши­роко используемых при исследовании систем управления, относят: математическое ожидание, дисперсию, среднее значение квадрата слу­чайного процесса, корреляционную функцию, спектральную плотность и другие.

А. Математическое ожидание m x (t) является средним значением случайного процесса x(t) по множеству и определяется

(26.2)

где w 1 (x, t) - одномерная плотность вероятности случайного про­цесса x(t).

Математическое ожидание случайного процесса x(t) представляет собой некоторую неслучайную функцию времени m x (t), около которой группируются и относительно которой колеблются все реализации дан­ного случайного процесса (рис. 26.1).

Средним значением квадрата случайного процесса называют вели­чину

(26.3)

Часто вводят в рассмотрение центрированный случайный процесс , под которым понимают отклонение случайного процесса X(t) от его среднего значения m x (t), или

(26.4)

Б. Дисперсия. Чтобы учесть степень разбросанности реализаций случайного про­цесса относительно его среднего значения, вводят понятие дисперсии случайного процесса, которая равна математическому ожиданию квад­рата центрированного случайного процесса

(26.5)

Дисперсия случайного процесса является неслучайной функцией времени D x (t) и характеризует разброс случайного процесса Х(t) от­носительно его математического ожидания m x (t).

На практике широко применяются статистические характеристики, имеющие ту же размерность, что и случайная величина, к которым от­носятся:

Среднее квадратическое значение случайного процесса

равное значению квадратного корня из среднего значения квадрата случайного процесса;

Среднее квадратичное отклонение случайного процесса

(26.7)

равное значению квадратного корня из дисперсии случайного процесса.

Математическое ожидание и дисперсия являются важными характе­ристиками случайного процесса, но не дают достаточного представления о внутренних связях случайного процесса, которые оказывают су­щественное влияние на характер его реализаций в пределах заданного интервала времени.

Одной из статистических характеристик, отражающих особенности внутренних связей случайного процесса, является корреляционная функция.

В. Корреляционной функцией случайного процесса Х(t) называют неслучайную функцию двух аргументов R x (t 1 ,t 2), которая для каж­дой пары произвольно выбранных значений моментов времени t 1 и t 2 равна математическому ожиданию произведения двух случайных величин -Х(t 1) и Х(t 2), соответствующих сечений случайного процесса:

где w 1 (x 1 , t 1 , x 2 , t 2) двумерная плотность вероятности.

Случайные процессы в зависимости от того, как изменяются их статистические характеристики с течением времени, делят на стационарные и нестационарные. Различают стационарность в узком и широком смысле .

Стационарным в узком смысле называют случайный процесс Х(t), если его n-мерные функции распределения и плотность вероятнос­ти при любом n не зависят от положения отсчета времени t.

Стационарным в широком смысле называют случайный процесс X(t), математическое ожидание которого постоянно:

М[Х(t)]= m x =const, (26.9)

а корреляционная функция зависит только от одной переменной - раз­ности аргументов t=t 2 -t 1:

В теории случайных процессов пользуются двумя понятиями сред­них значений: среднее значение по множеству и среднее значение по времени.

Среднее значение по множеству определяется на основе наблюде­ния над множеством реализаций случайного процесса в один и тот же момент времени, т.е.

(26.11)

Среднее значение по времени определяется на основе наблюде­ний за отдельной реализацией случайного x(t) на протяжении доста­точно длительного времени Т, т.е.

(26.12)

Из эргодической теоремы вытекает, что для так называемых эргодических стационарных случайных процессов среднее значение по множеству совпадает со средним значением по времени, т.е.

(26.13)

В соответствии с эргодической теоремой для стационарного слу­чайного процесса с математическим ожиданием m 0 x =0 корреляционную функцию можно определить

где x(t) - любая реализация случайного процесса.

Статистические свойства связи двух случайных процессов Х(t) и G(t) можно характеризовать взаимной корреляционной функцией R xg (t 1 ,t 2), которая для каждой пары произвольно выбранных значении аргументов t 1 и t 2 равна

Согласно эргодической теореме вместо (26.15) можно записать

(26.16)

где x(t) и g(t)- любые реализации стационарных случайных процес­сов Х(t) и G(t).

Если случайные процессы Х(t) и G(t) статистически не связаны друг с другом и имеют равные нулю средние значения, то их взаимная корреляционная функция для всех t равна нулю.

Приведем некоторые свойства корреляционных функций.

1. Начальное значение корреляционной функции равно среднему

значению квадрата случайного процесса:

2. Значение корреляционной функции при любом t не может превышать ее начального значения, то есть

3. Корреляционная функция есть четная функция от t, т.е.

(26.18)

Другой статистической характеристикой, отражающей внутреннюю структуру стационарного случайного процесса Х(t), является спект­ральная плотность S x (w), которая характеризует распределение энергии случайного сигнала по спектру частот.

Г. Спектральная плотность S x (w) случайного процесса Х(t) опре­деляется как преобразование Фурье корреляционной функции R(t),

(26.19)

Следовательно,

так как спектральная плотность S x (a ) является действительной и четной функцией частоты w.

Соотношения (26.19) и (26.20) позволяют установить некоторые зависимости между структурой случайного процесса Х(t) и видом ха­рактеристик R x (t) и S x (w) (рис.26.2).

Ид приведенных графиков следует, что с увеличением скорости изменения реализации Х(t) корреляционная функция R x (t) сужает­ся (обостряется), а спектральная плотность S x (w) расширяется.

Если вы нашли ошибку, пожалуйста, выделите фрагмент текста и нажмите Ctrl+Enter.