Случайный процесс. Случайные процессы

Вероятностные и корреляционные характеристики случайных процессов определяются с помощью одного или нескольких моментов времени (сечений). Однако существует класс случайных процессов, у которых зависимость характеристик от времени отсутствует, и при определенных условиях ряд вероятностных характеристик может быть определен путем усреднения по всему ансамблю реализаций. В других случаях для данных целей может быть осуществлено усреднение по времени с использованием одной к- реализации x k (t) случайного процесса Х(1). Наличие и отсутствие зависимости вероятностных характеристик от времени или от номера реализации определяет такие фундаментальные свойства процесса, как стационарность и эргодичность.

Особое место среди случайных процессов занимает стационарный случайный процесс, с которым часто приходится сталкиваться в теории связи.

Стационарными называют случайные процессы, статистические характеристики которых не изменяются во времени. Примерами стационарных случайных процессов являются внутренние шумы приемников, тепловой шум транзистора, стабилитрона и других полупроводниковых и электронных приборов. В практических приложениях теории случайных процессов условие стационарности обычно ограничивается требованием независимости от времени только одномерной и двумерной плотностей вероятности. Выполнение этого условия позволяет считать, что среднее значение, средний квадрат и дисперсия случайного процесса нс зависят от времени, а корреляционная функция зависит только от интервала между ними т = t 2 -t v т.е. от одного аргумента. Случайные процессы, удовлетворяющие условиям стационарности на ограниченных интервалах, также относят к их числу и называют квазистационарными.

С учетом предложенных ограничений при записи статистических параметров стационарного случайного процесса можно опускать обозначения фиксированных моментов времени. В этом случае математическое ожидание и дисперсия не зависят от времени, т.е. формулы (3.5) и (3.6) примут вид

Нетрудно показать, что функция корреляции случайного стационарного процесса зависит только от разности т = t 2 - t v и поэтому R x (t v t 2) = R v (т).

Из определения стационарности случайного процесса следует, что его функция корреляции является четной относительно т = 0: R v (т) = R x (- т).

Стационарность - не единственное полезное свойство случайных процессов, позволяющее подробно их исследовать. Еще одним свойством такого рода является эргодичность (ergodicity ; от греч. ergon - работа). Условие эргодичности включает в себя и условие стационарности случайного процесса. Эргодичность проявляется в том, что со временем процесс становится однородным.

Стационарный случайный процесс является эргодическим, если усреднение по ансамблю реализаций можно заменить усреднением по времени одной реализации в пределах бесконечного интервала времени Т х. Приведем пример: если у вас есть кубик с числами на гранях от 1 до 6, то при 600 выбрасываниях число 1 выпадет около 100 раз. Можно взять 600 одинаковых кубиков и бросить их все одновременно один раз. При этом около 100 кубиков также покажут грань с числом 1.

Математическое ожидание эргодического процесса вычисляется усреднением по бесконечному интервалу времени значений заданной реализации. Обозначая усреднение по времени угловыми скобками, запишем

Следует помнить, что математическое ожидание эргодического случайного процесса равно постоянной составляющей любой его реализации.

Средний квадрат

является средней мощностью всего случайного эргодического процесса. Дисперсия

определяет мощность флуктуационной составляющей эргодического процесса.

Как правило, при экспериментальном исследовании случайных процессов наблюдают одну реализацию. Если процесс эргодический, то его реализация па большом интервале является типичным представителем всего ансамбля.

На рис. 3.12 приведен пример реального случайного процесса Х(!) в виде одной из реализаций флуктуационной составляющей x(t) там же показано СКО ±а от математического ожидания т х (для упрощения графика выбрано т к = 0).


Рис. 3.12. Флуктуационная составляющая x(t) с СКО ±ст

В электрических цепях широко используют переходные (разделительные) ЯС-цепи, не пропускающие постоянной составляющей. Поэтому для реальных стационарных эргодических процессов математическое ожидание т г = 0.

Функция корреляции в этом случае имеет более простой вид

Выражение (3.18) внешне совпадает с определением (2.56) автокорреляционной функции детерминированного периодического сигнала. Непосредственно из формулы (3.18) вытекает четность функции R t (т) относительно сдвига ср.

Важно заметить, что достаточным условием эргодичности случайного процесса, стационарного в широком смысле, является стремление к нулю его корреляционной функции с ростом временного сдвига т: lim R( т) = 0.

Согласно приведенным формулам по одной реализации можно определить математическое ожидание, дисперсию и корреляционную функцию эргодического случайного процесса. Обычно интегрирование выполняется не в бесконечных пределах, а на конечном интервале, длина которого должна быть тем больше, чем выше требования к точности результатов исследования.

Изучение стационарного случайного процесса будем проводить с учетом его эргодичности, признак которого - равенство среднего значения по множеству реализаций (3.14) среднему значению по времени одной реализации (3.17):

В общем случае результаты усреднения случайных процессов по совокупности и по времени неодинаковы. Предел выборочного среднего по совокупности представляет собой вероятностную характеристику, выражающую зависимость вероятностных свойств процесса от времени. Предел выборочного среднего по времени представляет собой вероятностную характеристику, выражающую зависимость вероятностных свойств процесса от номера реализации.

Пример 3.3

Случайный процесс U(t) состоит из гармонических реализаций и(1) = = U m cos((o 0 t + ф), где амплитуда U m и частота со 0 - постоянные параметры, а начальная фаза реализации ф - случайная величина, которая с одинаковой вероятностыо принимает значение в интервале (-я, я) (рис. 3.13). Найдем числовые характеристики процесса и определим, является ли он стационарным.

Решение

Заданное распределение начальных фаз означает, что плотность вероятности случайной фазы любого колебания р(ф) = 1/(2я). Тогда согласно формуле (3.14) математическое ожидание для амплитуд гармонических напряжений

По формуле (3.16) находим дисперсию


Рис. 3.13-

Тот факт, что реализации случайного процесса являются периодическими функциями, позволяет упростить вычисления, заменив усреднение по бесконечному промежутку времени усреднением но периоду Т= 2я/со 0 . Тогда функцию корреляции получим усреднением по времени произведения двух напряжений:

В правой части этого выражения первое слагаемое в фигурных скобках является детерминированным колебанием, поскольку в нем отсутствует случайная фаза. Второе слагаемое при статистическом усреднении по фазе с помощью одномерной плотности вероятности обращается в нуль. Поэтому функция корреляции

где т = ^ - 1).

Все искомые числовые характеристики не зависят от времени, и заданный случайный процесс является стационарным.

Отметим, что любой случайный процесс, реализации которого являются гармоническими функциями, идентичными по форме и различающимися лишь равномерно распределенной в пределах заданного периода начальной фазой, будет не только стационарным, по и эргодическим.

Пример 3.4

Случайный процесс 17(f) состоит из реализаций u(t) = l/ m cos(co 0 f + U m - случайная величина с произвольным законом распределения и равновероятная в интервале от 0 до U max (рис. 3.14). Определим, является ли этот процесс стационарным.


Рис. 3.14.

Решение

Математическое ожидание й = U m cos(o) 0 t + ф) нс зависит от времени лишь при U m = 0. Поэтому случайный процесс является нестационарным.

Широкое практическое использование при исследовании состояния разных технических объектов получили три типа случайных процессов - гауссовский, стационарный и марковский.

Гауссовский случайный процесс - это случайный процесс X(t), распределение вероятностей параметров которого подчиняется нормальному закону. Математическое ожидание (среднее значение)М[Х(t)] и корреляционная функция K х (t 1 ,t 2) однозначно определяют распределение его параметров, следовательно, и процесс в целом.

Стационарный случайный процесс (однородный во времени случайный процесс) - это такой случайный процесс X(t), статистические характеристики которого постоянны во времени, то есть инвариантны к кратковременным возмущениям: t → t + τ, X(t) → X(t + τ) при любом фиксированном значении τ. Процесс полностью определяется математическим ожиданием M и корреляционной функцией

К х (t,τ) = M.

Марковский случайный процесс - это такой случайный процесс, при котором вероятность нахождения системы в каком-либо состоянии в будущем зависит от того, в каком состоянии система находится в заданный момент времени и не зависит от того, каким путем система перешла в это состояние. Короче - «будущее» и «прошлое» процесса при известном его «настоящем» не связаны друг с другом. Часто марковский процесс характеризуется вероятностями перехода системы из одного состояния в другое (переходными вероятностями).

Изменение технического состояния системы

Как уже говорилось, задача прогнозирования технического состояния, в самом общем понимании, представляет собой получение некоторых вероятностных характеристик работоспособности системы в будущем на основе данных контроля ее настоящего и прошедших состояний.

В зависимости от того, какая характеристика случайного процесса определяется при прогнозировании, различают прогнозирование надежности (определение условной плотности вероятности безотказной работы системы после контроля) и прогнозирование технического состояния (определение условной плотности распределения вероятностей значений определяющего параметра) на основе прошлых и настоящего состояний. На рис 8.1 проиллюстрирована разница между этими характеристиками. На этом рисунке x(t) - отрезок реализации случайного процесса X(t), описывающий изменение во времени некоторого определяющего параметра системы, имеющего допустимые границы (а, b) изменения. Отрезок реализации получен в результате наблюдения за конкретным экземпляром системы из заданного класса систем на интервале времени (0, t k 2). В момент t k 2 был осуществлен последний контроль системы, и на его основе необходимо решить - пригодна ли система к эксплуатации до наступления очередного момента контроля t k 3 .



рис. 8.1 Условная плотность вероятности безотказной работы р{x(t)} и f{(x(t)} условная плотность распределения вероятностей значений определяющего параметра

В связи с тем, что внешние воздействия, воспринимаемые системой, имеют случайный характер, случайный процесс после момента t k 2 может изменяться по разному (см. пунктирные линии на рис. 8.1). Процесс, являющийся продолжением некоторого исходного процесса при условии, что на интервале (0,t k 2) его реализация имела конкретный вид х(t), называется условным , или апостериорным , случайным процессом:

Х ps (t)=x. (8.5)

Следовательно, для принятия обоснованного решения о назначении срока очередного контроля системы необходимо знать характеристики апостериорного случайного процесса. Пригодной для выполнения задачи будет считаться система, определяющие параметры которой находятся в допустимых границах (а, b) в момент предыдущего контроля и не выйдут из этих границ до конца заданного срока функционирования. Поскольку выход определяющих параметров за допустимые границы является случайным событием, то оценкой работоспособности системы может быть условная вероятность безотказной ее работы после контроля. Это вероятность того, что случайный процесс ни разу не пересечет границу (a, b) после момента контроля; ее называют прогнозированной надежностью системы и обозначают

P{x(t)=<<(ba)/X(t)=x(t), 0<

Таким образом, прогнозированием надежности называется определение условной вероятности безотказной работы системы при условии, что в момент контроля она находилась в некотором фиксированном работоспособном состоянии.

Наиболее полной характеристикой будущего технического состояния системы является условная плотность распределения вероятностей ее определяющих параметров, то есть будущих значений случайного процесса

f{x(t k 3)/X(t)=x(t), 0<

при условии, что на интервале (0,t k 3) реализация процесса имела конкретный вид (рис. 8.1).

Теория случайных величин изучает вероятностные явления «в статике», рассматривая их как некоторые зафиксированные результаты экспериментов. Для описания сигналов, которые отображают развивающиеся во времени случайные явления, методы классической теории вероятностей оказываются недостаточными. Подобные задачи изучает особая ветвь математики, получившая название теории случайных процессов.

По определению, случайный процесс - это особого вида функция, характеризующаяся тем, что в любой момент времени принимаемые ею значения являются случайными величинами.

Ансамбли реализаций.

Имея дело с детерминированными сигналами, мы отображаем их функциональными зависимостями или осциллограммами. Если же речь идет о случайных процессах, то ситуация оказывается сложнее. Фиксируя на определенном промежутке времени мгновенные значения случайного сигнала, получаем лишь единственную реализацию случайного процесса. Случайный процесс представляет собой бесконечную совокупность таких реализаций, образующих статистический ансамбль. Например, ансамблем является набор сигналов , которые можно одновременно наблюдать на выходах совершенно одинаковых генераторов шумового напряжения.

Совсем необязательно, чтобы реализации случайного процесса представлялись функциями со сложным, нерегулярным во времени поведением. Часто приходится рассматривать случайные процессы, образованные, например, всевозможными гармоническими сигналами , у которых однн из трех параметров - случайная величина, принимающая определенное значение в каждой реализации. Случайный характер такого сигнала заключен в невозможности заранее, до опыта зиать значение этого параметра.

Случайные процессы, образованные реализациями, зависящими от конечного числа параметров, принято называть квазидетерминированными случайными процессами.

Плотности вероятности случайных процессов.

Пусть - случайный процесс, заданный ансамблем реализаций, - некоторый произвольный момент времени. Фиксируя величины получаемые в отдельных реализациях, осуществляем одномерное сечение данного случайного процесса и наблюдаем случайную величину Ее плотность вероятности называют одномерной плотностью вероятности процесса в момент времени

Согласно определению, величина есть вероятность того, что реализации случайного процесса в момент времени примут значения, лежащие в интервале

Информация, которую можно извлечь из одномерной плотности, недостаточна для того, чтобы судить о характере развития реализаций случайного процесса во времени. Гораздо больше сведений можно получить, располагая двумя сечениями случайного процесса в несовпадающие моменты времени Возникающая при таком мысленном эксперименте двумерная случайная величина описывается двумерной плотностью вероятности Эта характеристика случайного процесса позволяет вычислить вероятность события, заключающегося в том, что реализация случайного процесса при проходит в малой окрестности точки а при - в малой окрестности точки

Естественным обобщением является -мерное сечение случайного процесса приводящее к -мерной плотности вероятности

Многомерная плотность вероятности случайного процесса должна удовлетворять обычным условиям, налагаемым на плотность вероятности совокупности случайных величин (см. § 6.2). Помимо этого, величина не должна зависеть от того, в каком порядке располагаются ее аргументы (условие симметрии).

Иногда вместо -мерной плотности вероятности удобно пользоваться -мерной характеристической функцией, которая связана с соответствующей плотностью преобразованием Фурье:

Описание свойств случайных процессов с помощью многомерных плотностей вероятности высокой размерности может быть весьма подробным. Однако на этом пути часто встречаются серьезные математические трудности.

Моментные функция случайных процессов.

Менее детальные, но, как правило, вполне удовлетворительные в практическом смысле характеристики случайных процессов можно получить, вычисляя моменты тех случайных величин, которые наблюдаются в сечениях этих процессов. Поскольку в общем случае эти моменты зависят от временных аргументов, они получили название моментных функций.

Для статистической радиотехники наибольшее значение имеют три моментные функции низших порядков, называемые математическим ожиданием, дисперсией и функцией корреляции.

Математическое ожидание

есть среднее значение процесса X(t) в текущий момент времени ; усреднение проводится по всему ансамблю реализаций процесса.

Дисперсия

позволяет судить о степени разброса мгновенных значений, принимаемых отдельными реализациями в фиксированном сечении t, относительно среднего значения.

Двумерный центральный момент

называется функцией корреляции случайного процесса Эта моментная функция характеризует степень статистической связи тех случайных величин, которые наблюдаются при Сравнивая формулы (6.37), (6.38), заметим, что при совмещении сечений функция корреляции численно равна дисперсии:

Стационарные случайные процессы.

Так принято называть случайные процессы, статистические характеристики которых одинаковы во всех сечениях.

Говорят, что случайный процесс стационарен в узком смысле; если любая его -мерная плотность вероятности инвариантна относительно временного сдвига

Если же ограничить требования тем, чтобы математическое ожидание и дисперсия процесса не зависели от времени, а функция корреляции зависела лишь от разности - , то подобный случайный процесс будет стационарен в широком смысле. Понятно, что из стационарности в узком смысле следует стационарность в широком смысле, но не наоборот.

Как следует из определения, функция корреляции стационарного случайного процесса является четной:

Кроме того, абсолютные значения этой функции при любых не превышают ее значения при :

Метод доказательства таков: из очевидного неравенства

следует, что

откуда непосредственно вытекает неравенство (6.41).

Часто удобно использовать нормированную функцию корреляции

для которой .

Чтобы проиллюстрировать понятие стационарного случайного процесса, рассмотрим два примера.

Пример 6.5. Случайный процесс образован реализациями вида где известны заранее, в то время как фазовый угол - случайная величина, равномерно распределенная на отрезке -

Так как плотность вероятности фазового угла то математическое ожидание процесса

Аналогично можно найти дисперсию:

Наконец, функция корреляции

Итак, данный случайный процесс удовлетворяет всем условиям, которые необходимы для того, чтобы обеспечить стационарность в широком смысле.

Пример 6.6. Случайный процесс имеет реализации вида и причем - заданные числа. - случайная величина с произвольным законом распределения. Математическое ожидание

будет не зависимым от времени лишь при Поэтому в общем случае рассматриваемый случайный процесс будет нестационарным.

Свойство эргодичности.

Стационарный случайный процесс называют эргодическим, если при нахождении его моментных функций усреднение по статистическому ансамблю можно заменить усреднением по времени. Операция усреднения выполняется над единственной реализацией длительность Т которой теоретически может быть сколь угодно велика,

Обозначая усреднение по времени угловыми скобками, запишем математическое ожидание эргодического случайного процесса:

которое равно постоянной составляющей выбранной реализации.

Дисперсия подобного процесса

Поскольку величина представляет собой среднюю мощность реализации, а величина - мощность постоянной составляющей, дисперсия имеет наглядный смысл мощности флуктуационной составляющей эргодического процесса.

Аналогично находят функцию корреляции:

Достаточным условием эргодичности случайного процесса, стационарного в широком смысле, является стремление к нулю функции корреляции при неограниченном росте временного сдвига :

В математике показано, что это требование можно несколько ослабить. Оказывается, что случайный процесс эргодичен, если выполнено условие Слуцкого :

Так, равенство (6.47) справедливо применительно к гармоническому процессу со случайной начальной фазой (см. пример 6.5).

Измерение характеристик случайных процессов.

Если случайный процесс является эргодическим, то его реализация достаточной длины есть «типичный» представитель статистического ансамбля. Изучая эту реализацию экспериментально, можно получить много сведений, характеризующих данный случайный процесс.

Прибор для измерения одномерной плотности вероятности случайного процесса может быть выполнен следующим образом. Одномерная плотность вероятности эргодического случайного процесса есть величина, пропорциональная относительному времени пребывания его реализации на уровне между Предположим, что имеется устройство с двумя входами, на один из которых подается исследуемая реализация х(t), а на другой - опорное постоянное напряжение, уровень которого можно регулировать. На выходе устройства возникают прямоугольные видеоимпульсы постоянной амплитуды, начало и конец которых определяются моментами времени, когда текущие значения случайного сигнала совпадают либо с уровнем либо с уровнем Если теперь измерить, скажем, с помощью обычного стрелочного прибора среднее значение тока, создаваемого последовательностью видеоимпульсов, то показания этого прибора будут пропорциональны плотности вероятности

Любой достаточно инерционный стрелочный прибор может быть использован для измерения математического ожидания случайного процесса [см. формулу (6.43)].

Прибор, измеряющий дисперсию случайного процесса, как это следует из (6.44), должен иметь на входе конденсатор, отделяющий постоянную составляющую. Дальнейшие этапы процесса измерения - возведение в квадрат и усреднение по времени - выполняются инерционным квадратичным вольтметром.

Принцип работы измерителя функции корреляции (коррелометра) вытекает из формулы (6.45). Здесь мгновенные значения случайного сигнала после фильтрации постоянной составляющей, разделяясь на канала, поступают на перемножитель, причем в одном из каналов сигнал задерживается на время . Для получения значения функции корреляции сигнал с выхода перемножителя обрабатывается инерционным звеном, которое осуществляет усреднение.

Независимо от величины

Здесь приняты те же обозначения, что и в формуле (6.26). Элементы корреляционной матрицы этого случайного процесса определяются нормированной функцией корреляции:

В дальнейшем часто будет использоваться двумерная гауссова плотность

Стационарный гауссов процесс занимает исключительное место среди прочих случайных процессов - любая его многомерная плотность вероятности определяется даумя характеристиками: математическим ожиданием и функцией корреляции.

Определение

,

где произвольное множество , называется случайной функцией.

Терминология

Данная классификация нестрогая. В частности, термин "случайный процесс" часто используется как безусловный синоним термина "случайная функция".

Классификация

Траектория случайного процесса

Пусть дан случайный процесс . Тогда для каждого фиксированного - случайная величина, называемая сечением . Если фиксирован элементарный исход , то - детерминистическая функция параметра . Такая функция называется траекто́рией или реализа́цией случайной функции .

Примеры

является случайным процессом.

Примечания

См. также

Источники

  • А. А. Свешников. Прикладные методы теории случайных функций. - Гл.ред.физ.-мат.лит., 1968.
  • С. И. Баскаков. Радио/технические цепи и сигналы. - Высшая школа, 2000.

Wikimedia Foundation . 2010 .

  • Альпола, Антеро
  • Головка самонаведения

Смотреть что такое "Случайный процесс" в других словарях:

    случайный процесс - — случайный процесс вероятностный процесс стохастический процесс Случайная функция X(t) от независимой переменной t (в экономике она чаще всего интерпретируется как время). Иначе … Справочник технического переводчика

    СЛУЧАЙНЫЙ ПРОЦЕСС - (вероятностный или стохастический), процесс изменения во времени состояния или характеристик некоторой системы под влиянием различных случайных факторов, для которого определена вероятность того или иного его течения. Типичным примером случайного … Большой Энциклопедический словарь

    Случайный процесс - (вероятностный, стохастический процесс) случайная функция X(t) от независимой переменной t (в экономике она чаще всего интерпретируется как время). Иначе говоря, это такой процесс, течение которого может быть различным в… … Экономико-математический словарь

    СЛУЧАЙНЫЙ ПРОЦЕСС - ф ция непрерывного времени,значение к рой в каждый момент является случайной величиной, т … Физическая энциклопедия

    СЛУЧАЙНЫЙ ПРОЦЕСС - функция 2 х аргументов X(t)= X(ω,t); множество элементарных событий, параметр, обычно интерпретируемый как время. Для каждого tX(ω,t) функция только ω и представляет собой случайную величину. Для фиксированного ω X(ω,t)… … Геологическая энциклопедия

    Случайный процесс - 1. Случайный процесс Вероятностный процесс Источник: ГОСТ 21878 76: Случайные процессы и динамические системы. Термины и определения оригинал документа … Словарь-справочник терминов нормативно-технической документации

    случайный процесс - (вероятностный, или стохастический), процесс изменения во времени состояния или характеристик некоторой системы под влиянием различных случайных факторов, для которого определена вероятность того или иного его течения. Типичным примером… … Энциклопедический словарь

    Случайный процесс - (вероятностный, или стохастический) процесс (т. е. изменение во времени состояния некоторой системы), течение которого может быть различным в зависимости от случая и для которого определена вероятность того или иного его течения. Типичным … Большая советская энциклопедия

    СЛУЧАЙНЫЙ ПРОЦЕСС - (вероятностный, или стохастический), процесс изменения во времени состояния или характеристик нек рой системы под влиянием разл. случайных факторов, для к рого определена вероятность того или иного его течения. Типичным примером С. п. может… … Естествознание. Энциклопедический словарь

    случайный процесс - tikimybinis procesas statusas T sritis chemija apibrėžtis Procesas, kuris iš anksto negali būti tiksliai nusakytas, o yra apibūdinamas jo vykimo tikimybe. atitikmenys: angl. probabilistic process; random process; stochastic process rus.… … Chemijos terminų aiškinamasis žodynas

Книги

  • , Груздев А.. Практическое применение методов машинного обучения на базе популярных статистических пакетов IBM SPSS Statistics, R и Python Строительство и интерпретация дерева решенийи случайного леса … Купить за 3202 руб
  • Прогнозное моделирование в IBM SPSS Statistics, R и Python. Метод деревьев решений и случайный лес , Груздев Артем Владимирович. Данная книга представляет собой практическое руководство по применению метода деревьев решений и случайного леса для задач сегментации, классификации и прогнозирования. Каждый раздел книги…

Случайный процесс Х(t) представляет собой функцию, которая отличается тем, что ее значения в любые произвольные моменты времени по координате t являются случайными. Строго с теоретических позиций, случайный процесс X(t) следует рассматривать как совокупность множества реализаций функций x k (t), имеющих общую статистическую закономерность. При регистрации случайного процесса на определенном временном интервале осуществляется фиксирование единичной реализации x k (t) из бесчисленного числа возможных реализаций процесса X(t). Эта единичная реализация называется выборочной функцией случайного процесса X(t). Примеры выборочных функций модельного случайного процесса X(t) приведены на рис. 131. В дальнейшем без дополнительных пояснений при рассмотрении различных параметров и характеристик случайных процессов для сопровождающих примеров будем использовать данную модель процесса.

Рис. 13.1. Выборочные функции случайного процесса.

С практической точки зрения выборочная функция является результатом отдельного эксперимента, после которого данную реализацию x k (t) можно считать детерминированной функцией. Сам случайный процесс в целом должен анализироваться с позиции бесконечной совокупности таких реализаций, образующих статистический ансамбль . В каждый выбранный момент времени t 1 конкретная реализация процесса представляет собой случайную величину х 1 с определенной плотностью вероятности p(x 1 , t 1), а ее среднее значение определяется усреднением по всем возможным реализациям в этот момент времени t 1 . Полной статистической характеристикой такой системы является N-мерная плотность вероятностей р(x n ; t n). Однако, как экспериментальное определение N-мерных плотностей вероятностей процессов, так и их использование в математическом анализе представляет значительные математические трудности. Поэтому на практике обычно ограничиваются одно- и двумерной плотностью вероятностей процессов.

Рис. 13.2. Сечения случайного процесса X(t).

Функциональные характеристики случайных сигналов. Допустим, что случайный процесс X(t) задан ансамблем реализаций {x 1 (t), x 2 (t), … , x k (t), …}. В произвольный момент времени t 1 зафиксируем значения всех реализаций {x 1 (t 1), x 2 (t 1), … , x k (t 1), …}. Совокупность этих значений представляет собой случайную величину X(t 1) и является одномерным сечением случайного процесса X(t). Примеры сечений по 100 выборкам случайного процесса X(t) (рис. 9.1.1) в точках t 1 =30 и t 2 =65 приведены на рис. 13.2.

Одномерная функция распределения вероятностей (x, t n) определяет вероятность того, что в момент времени t n значение случайной величины X(t n) не превысит значения x:


F(x, t n) = P{X(t n) ≤ x}.

Очевидно, что в диапазоне значений вероятностей от 0 до 1 функция F(x, t) является неубывающей с предельными значениями F(-¥, t) = 0 и F(¥, t) = 1. При известной функции F(x, t) вероятность того, что значение X(t n) в выборках будет попадать в определенный интервал значений будет определяться выражением:

P{a < X(t n) ≤ b} = F(b, t n) – F(a, t n).

Одномерная плотность вероятностей p(x, t) случайного процесса Х(t) характеризует распределение вероятностей реализации случайной величины Х(t n) в произвольный момент времени t n . Она представляет собой производную от функции распределения вероятностей:

p(x, t n) = dF(x, t n)/dx.

Моменты времени t n являются сечениями случайного процесса X(t) по пространству возможных состояний, и плотность вероятностей p(x, t n) представляет собой плотность вероятностей случайных величин X(t n) данных сечений. Произведение p(x, t n)·dx равно вероятности реализации случайной величины X(t n) в бесконечно малом интервале dx в окрестности значения x, откуда следует, что плотность вероятностей также является неотрицательной величиной.

Рис. 13.3. Распределение вероятностей и плотность вероятностей сечения случайного процесса

На рис. 13.3 приведены примеры распределения вероятностей и плотности вероятностей сечения случайного процесса X(t) (рис. 13.1) в точке t 1 . Функции вероятностей определены по N = 1000 выборок дискретной модели случайного процесса, и сопоставлены с теоретическими распределениями при N ® ¥.

При известной функции плотности вероятностей вероятность реализации значения X(t n) в произвольном интервале значений вычисляется по формуле:

P(a < X(t n) ≤ b) = p(x, t n) dx.

Функция плотности вероятностей должна быть нормирована к 1, т.к. случайная величина обязана принимать какое-либо значение из числа возможных, образующих полное пространство случайных величин:

P(x, t n) dx = 1.

По известной плотности распределения вычисляется и функция распределения вероятностей:

F(x, t n) = p(x, t n) dx.

Моменты распределения случайных сигналов позволяют охарактеризовать случайные процессы устойчивыми и неслучайными интегральными оценками.

Математическое ожидание (mean value), или первый момент распределения, представляет собой статистическое усреднение случайной величины X(t n) - усреднение по ансамблю реализаций в каком-либо фиксированном сечении t n случайного процесса. Соответственно, функция математического ожидания определяет зависимость среднего взвешенного значения случайного процесса от независимой переменной (времени):

m x (t) º M{Х(t)}º = x p(x; t) dx. (13.1)

Математическое ожидание m x (t) представляет собой неслучайную составляющую случайного процесса X(t). На рис. 9.1.1. и 9.1.2 неслучайные составляющие m(t) модели случайного процесса X(t) выделены пунктиром и соответствуют выборкам при N ® ¥.

Средний квадрат случайного процесса (функция второго момента) – зависимость среднего взвешенного значения (математического ожидания) квадрата значений случайного процесса от независимой переменной, т.е. мощность процесса:

M{Х 2 (t)}º = x 2 p(x; t) dx.

Функция дисперсии (variance) – второго центрального момента случайного процесса, определяет функцию среднего взвешенного значения (математического ожидания) квадрата разности Х(t)-m x (t), которая называется флюктуационной частью процесса:

D x (t) = M{[Х(t)-m x (t)] 2 } = 2 p(x; t) dx. (

Функция среднего квадратического отклонения (standard deviation) служит амплитудной мерой разброса (флюктуаций) значений случайного процесса по временной оси относительно математического ожидания процесса:

s x (t) = . (13.3)

Учитывая последнее выражение, дисперсия случайной величины обычно обозначается индексом s x 2 .

На рис. 13.4 приведен пример флюктуационной составляющей процесса X(t) (рис. 13.1) в одной из реализаций в сопоставлении со средним квадратическим отклонением ±s случайных величин от математического ожидания m(t).

Вид функций плотности вероятностей в сечениях случайных процессов p(x; t n), а также по всем сечениям стационарных случайных процессов р(х), зависит от физической природы случайных сигналов, но чаще всего соответствует нормальному (гауссову) распределению:

p(x) = .

Это определяется тем, что в соответствии с "центральной предельной теоремой " распределение вероятностей для сумм независимых случайных величин, при которых нет доминирующих, стремится к нормальному закону по мере роста числа слагаемых, и не зависит от законов распределения слагаемых. Между тем физические случайные процессы обычно являются многопараметровыми, при этом случайность значений параметров, как правило, обусловлена их природой и также соответствует нормальным распределениям.

Двумерная плотность вероятностей. Одномерные законы плотности распределения вероятностей случайных процессов не несут каких-либо характеристик связи между значениями случайных величин для различных значений аргументов.

Двумерная плотность вероятностей p(x 1 ,x 2 ; t 1 ,t 2) определяет вероятность совместной реализации значений случайных величин Х(t 1) и Х(t 2) в произвольные моменты времени t 1 и t 2 и в какой-то мере уже позволяет оценивать динамику развития процесса. Двумерная плотность вероятностей описывает двумерную случайную величину {X(t n), X(t m)} в виде функции вероятности реализации случайной величины X(t n) в бесконечно малом интервале dx n в окрестностях x n в момент времени t n при условии, что в момент времени t m значение X(t m) будет реализовано в бесконечно малом интервале dx m в окрестностях x m:

p(x n ,x m ; t n ,t m) dx n dx m = P{|X(t n)-x n |≤dx n /2, |X(t m)-x m |≤dx m /2}.

При двумерной плотности вероятности имеем:

m x (t) º = x 1 (t 1) p(x 1 ,t 1 ; x 2 ,t 2) dx 1 dx 2 . (13.1")

D x (t) = s x 2 (t)= 2 p(x 1 ,t 1 ; x 2 ,t 2) dx 1 dx 2 . (13.2")

Корреляционные функции случайных процессов. Характеристикой динамики изменения двумерной случайной величины {X(t n), X(t m)} является корреляционная функция, которая описывает случайный процесс в целом:

R X (t n , t m) = M{X(t n) X(t m)}.

Корреляционная функция представляет собой статистически усредненное произведение значений случайного процесса X(t) в моменты времени t n и t m по всем значениям аргументов t n и t m , а, следовательно, тоже является двумерной функцией. В терминах теории вероятностей корреляционная функция является вторым начальным моментом случайного процесса.

На рис. 13.5 приведены примеры реализаций двух случайных процессов, которые характеризуются одной и той же функцией математического ожидания и дисперсии.

Рис. 13.5.

На рисунке видно, что хотя пространство состояний обоих процессов практически одно и то же, динамика развития процессов в реализациях существенно различается. Единичные реализации коррелированных процессов в произвольный момент времени могут быть такими же случайными, как и некоррелированных, а в пределе, во всех сечениях оба процесса могут иметь один и тот же закон распределения случайных величин. Однако динамика развития по координате t (или любой другой независимой переменной) единичной реализации коррелированного процесса по сравнению с некоррелированным является более плавной, а, следовательно, в коррелированном процессе имеется определенная связь между последовательными значениями случайных величин. Оценка степени статистической зависимости мгновенных значений какого-либо процесса Х(t) в произвольные моменты времени t n и t m и производится функцией корреляции. По всему пространству значений случайного процесса X(t) корреляционная функция определяется выражением:

R X (t n , t m) = x(t n)x(t m) p(x n ,t m ; x n ,t m) dx n dx m, (9.1.4)

Рис. 13.6. Двумерная плотность вероятностей и корреляционная функция процесса X(t).

На рис. 13.6 приведена форма модельного случайного процесса X(t) в одной выборке со значительной и изменяющейся неслучайной составляющей. Модель задана на интервале 0-Т (Т=100) в дискретной форме с шагом Dt=1. Корреляционная функция вычислена по заданной плотности вероятностей модели.

При анализе случайных процессов второй момент времени t m удобно задавать величиной сдвига t относительно первого момента, который при этом может быть задан в виде координатной переменной:

R Х (t, t+t) = M{Х(t)Х(t+t)}. (13.4")

Функция, задаваемая этим выражением, обычно называется функцией автокорреляции случайного процесса.

Ковариационные функции. Частным случаем корреляционной функции является функция автоковариации (ФАК), которая широко используется при анализе сигналов. Она представляет собой статистически усредненное произведение значений центрированной случайной функции X(t)-m x (t) в моменты времени t n и t m и характеризует флюктуационную составляющую процесса:

К Х (t n ,t m) = (x(t n)-m x (t n)) (x(t m)-m x (t m)) p(x n ,t n ; x m ,t m) dx n dx m, (13.5)

В терминах теории вероятностей ковариационная функция является вторым центральным моментом случайного процесса. Для центрированных случайных процессов ФАК тождественна функции корреляции. При произвольных значениях m x ковариационные и корреляционные функции связаны соотношением:

K X (t, t+t) = R X (t, t+t) - m x 2 (t).

Нормированная функция автоковариации (функция корреляционных коэффициентов):

r Х (t, t+t) = К Х (t, t+t)/. (9.1.6)

При t= 0 значение r Х равно 1, а ФАК вырождается в дисперсию случайного процесса:

К Х (t) = D Х (t) = s x 2 (t).

Отсюда следует, что для случайных процессов и функций основными характеристиками являются функции математического ожидания и корреляции (ковариации). Особой необходимости в отдельной функции дисперсии не имеется.

Примеры реализаций двух различных случайных процессов и их нормированных ковариационных функций приведены на рис. 13.7.

Рис. 13.7. Реализации и ковариационные функции случайных процессов.