рефераты конспекты курсовые дипломные лекции шпоры

Реферат Курсовая Конспект

Случайные процессы и функции [1, 2, 25].

Случайные процессы и функции [1, 2, 25]. - раздел Связь, Введение в теорию сигналов и систем. Случайный Процесс Описывается Статистическими Характеристиками, Называемыми М...

Случайный процесс описывается статистическими характеристиками, называемыми моментами. Важнейшими характеристиками случайного процесса являются его стационарность, эргодичность и спектр мощности.

Случайный процесс в его математическом описании Х(t) представляет собой функцию, которая отличается тем, что ее значения (действительные или комплексные) в произвольные моменты времени по координате t являются случайными. Строго с теоретических позиций, случайный процесс X(t) следует рассматривать как совокупность временных функций xk(t), имеющих определенную общую статистическую закономерность. При регистрации случайного процесса на определенном временном интервале осуществляется фиксирование единичной реализации xk(t) из бесчисленного числа возможных реализаций процесса X(t). Эта единичная реализация называется выборочной функцией случайного процесса X(t). Отдельная выборочная функция не характеризует процесс в целом, но при определенных условиях по ней могут быть выполнены оценки статистических характеристик процесса. Примеры выборочных функций модельного случайного процесса X(t) приведены на рис. 9.1.1. В дальнейшем при рассмотрении различных параметров и характеристик случайных процессов для сопровождающих примеров будем использовать данную модель процесса.

Рис. 9.1.1. Выборочные функции случайного процесса.

Функциональные характеристики случайного процесса.

Рис. 9.1.2. Сечения случайного процесса X(t).

С практической точки зрения выборочная функция является результатом отдельного эксперимента, после которого данную реализацию xk(t) можно считать детерминированной функцией. Сам случайный процесс в целом должен анализироваться с позиции бесконечной совокупности таких реализаций, образующих статистический ансамбль. Полной статистической характеристикой процесса является N-мерная плотность вероятностей р(xn; tn). Однако, как экспериментальное определение N-мерных плотностей вероятностей процессов, так и их использование в математическом анализе представляет значительные математические трудности. Поэтому на практике обычно ограничиваются одно- и двумерной плотностью вероятностей процессов.

Допустим, что случайный процесс X(t) задан ансамблем реализаций {x1(t), x2(t),… xk(t),…}. В произвольный момент времени t1 зафиксируем значения всех реализаций {x1(t1), x2(t1),… xk(t1),…}. Совокупность этих значений представляет собой случайную величину X(t1) и является одномерным сечением случайного процесса X(t). Примеры сечений случайного процесса X(t) по 100 выборкам xk(t) (рис. 9.1.1) в точках t1 и t2 приведены на рис. 9.1.2.

Одномерная функция распределения вероятностей F(x, ti) определяет вероятность того, что в момент времени ti значение случайной величины X(ti) не превысит значения x:

F(x, ti) = P{X(ti)≤x}.

Очевидно, что в диапазоне значений вероятностей от 0 до 1 функция F(x, t) является неубывающей с предельными значениями F(-¥,t)=0 и F(¥,t)=1. При известной функции F(x,t) вероятность того, что значение X(ti) в выборках будет попадать в определенный интервал значений [a, b] определяется выражением:

P{a<X(ti)≤b} = F(b, ti) – F(a, ti).

Одномерная плотность распределения вероятностей p(x, t) случайного процесса Х(t) определяет вероятность того, что случайная величина x(t) лежит в интервале {x ≤ x(t) ≤ x+dx}. Она характеризует распределение вероятностей реализации случайной величины Х(ti) в произвольный момент времени ti и представляет собой производную от функции распределения вероятностей:

p(x, ti) = dF(x, ti)/dx. (9.1.1)

Моменты времени ti являются сечениями случайного процесса X(t) по пространству возможных состояний и плотность вероятностей p(x, ti) представляет собой плотность вероятностей случайных величин X(ti) данных сечений. Произведение p(x, ti)dx равно вероятности реализации случайной величины X(ti) в бесконечно малом интервале dx в окрестности значения x, откуда следует, что плотность вероятностей также является неотрицательной величиной.

Рис. 9.1.3. Распределение вероятностей и плотность вероятностей сечения случайного процесса

На рис. 9.1.3 приведены примеры распределения вероятностей и плотности вероятностей сечения случайного процесса X(t) в точке t1 (рис. 9.1.1). Функции вероятностей определены по N=1000 выборок дискретной модели случайного процесса и сопоставлены с теоретическими распределениями при N ® ¥.

При известной функции плотности вероятностей вероятность реализации значения X(ti) в произвольном интервале значений [a, b] вычисляется по формуле:

P(a<X(ti)≤b) =p(x,ti) dx.

Функция плотности вероятностей должна быть нормирована к 1, т.к. случайная величина обязана принимать какое-либо значение из числа возможных, образующих полное пространство случайных величин:

p(x, ti) dx =1.

Плотность распределения вероятностей, соответственно, определяет функцию распределения вероятностей:

F(x,ti) =p(x, ti) dx.

По известной плотности распределения вероятностей могут быть вычислены функции моментов случайного процесса, которые представляют собой математические ожидания соответствующих степеней (порядка) значений случайного процесса (начальные моменты) и значений флюктуационных составляющих процесса (центральные моменты, моменты относительно центров распределения случайных величин):

M{xn(t)} =xn(t) p(x, t) dx,

M0{xn(t)} = M{[x(t)-M{x(t)}]n} =[(x(t)- M{x(t)}]n p(x, t) dx,

Функции моментов являются основными статистическими характеристиками случайного процесса. Они представляют собой неслучайные функции, но полностью и однозначно определяют случайный процесс, как и плотность распределения вероятностей, при определенном количестве порядков в зависимости от характера процесса. Минимальное число порядков, которое полностью определяет гауссово распределение плотности вероятностей, равно 2.

В практике анализа случайных процессов используются, в основном, начальные моменты первого порядка и центральные моменты второго порядка.

Математическое ожидание(mean value) является первым начальным моментом случайного процесса и представляет собой статистическое усреднение случайной величины X(ti) в каком либо фиксированном сечении ti случайного процесса. Соответственно, полная функция математического ожидания является теоретической оценкой среднего взвешенного значения случайного процесса по временной оси:

mx(t) º M{Х(t)}º =x p(x; t) dx, (9.1.2)

Математическое ожидание mx(t) представляет собой неслучайную составляющую случайного процесса X(t). На рис. 9.1.1. и 9.1.2 неслучайные составляющие m(t) модели случайного процесса X(t) выделены пунктиром и соответствуют выборкам N ® ¥.

Второй начальный момент случайного процесса определяет его среднюю мощность:

wx(t) º M{Х2(t)}º =x2 p(x; t) dx, (9.1.3)

Функция дисперсии (variance, function of a dispersion) случайного процесса. При анализе случайных процессов особый интерес представляет флуктуационная составляющая процесса, которая определяется разностью Х(t)-mx(t). Функция дисперсии является теоретической оценкой среднего взвешенного значения разности Х(t)-mx(t)2, т.е. является вторым центральным моментом процесса, и определяет мощность его флуктуационной составляющей:

Dx(t) = M{[Х(t)-mx(t)]2} = M{X2(t)} - mx2(t) =[xo(t)]2 p(x; t) dx, (9.1.4)

где xo(t) = x(t)-mx(t).

Функция среднего квадратического отклонения (standard deviation) служит амплитудной мерой разброса значений случайного процесса по временной оси относительно математического ожидания процесса:

sx(t) =. (9.1.5)

Рис. 9.1.4.

Учитывая последнее выражение, дисперсия случайной величины обычно обозначается индексом s2.

На рис. 9.1.4 приведен пример флюктуационной составляющей процесса X(t) (рис. 9.1.1) в одной из реализаций в сопоставлении со средним квадратическим отклонением ±s случайных величин от математического ожидания m(t).

Одномерные законы плотности распределения вероятностей случайных процессов не несут каких-либо характеристик связи между значениями случайных величин для различных значений аргументов.

Двумерная плотность распределения вероятностей p(x1,t1; x2,t2) определяет вероятность совместной реализации значений случайных величин Х(t1) и Х(t2) в произвольные моменты времени t1 и t2, что характеризует взаимосвязь случайного процесса в различные моменты времени и дает возможность определить характер изменения случайного процесса, т.е. динамику развития процесса во времени. Распределение описывает двумерную случайную величину {X(ti), X(tj)} в виде функции вероятности реализации случайной величины X(ti) в бесконечно малом интервале dxi в окрестностях xi в момент времени ti при условии, что в момент времени tj значение X(tj) будет реализовано в бесконечно малом интервале dxj в окрестностях xj:

p(x1,t1; x2,t2) = P{x1 ≤ x(t1) ≤ x1+dx1 Ç x2 ≤ x(t2) ≤ x2+dx2 }.

С помощью двумерной плотности распределения вероятностей можно определить корреляционные функции процесса.

Корреляционные функции случайных процессов. Характеристикой динамики изменения случайной величины X(ti) является корреляционная функция, которая описывает случайный процесс в целом:

RX(ti, tj) = M{X(t1) X(t2)}.

Корреляционная функция представляет собой статистически усредненное произведение значений случайного процесса X(t) в моменты времени ti и tj по всем значениям временных осей ti и tj, а, следовательно, тоже является двумерной функцией. В терминах теории вероятностей корреляционная функция является вторым начальным моментом случайного процесса.

На рис. 9.1.5 приведены примеры реализаций двух случайных процессов, которые характеризуются одной и той же функцией математического ожидания и дисперсии.

Рис. 9.1.5.

На рисунке видно, что хотя пространство состояний обоих процессов практически одно и то же, динамика развития процессов в реализациях существенно различается. Единичные реализации коррелированных процессов в произвольный момент времени могут быть такими же случайными, как и некоррелированных, а в пределе, во всех сечениях оба процесса могут иметь один и тот же закон распределения случайных величин. Однако динамика развития по координате t (или любой другой независимой переменной) единичной реализации коррелированного процесса по сравнению с некоррелированным является более плавной, а, следовательно, в коррелированном процессе имеется определенная связь между последовательными значениями случайных величин. Оценка степени статистической зависимости мгновенных значений какого-либо процесса Х(t) в произвольные моменты времени t1 и t2 и производится функцией корреляции. По всему пространству значений случайного процесса X(t) корреляционная функция определяется выражением:

RX(ti, tj) =x(ti)x(tj) p(xi,tj; xi,tj) dxi dxj, (9.1.6)

При анализе случайных процессов второй момент времени tj удобно задавать величиной сдвига t относительно первого момента, который при этом может быть задан в виде координатной переменной:

RX(t, t+t) = M{Х(t)Х(t+t)}. (9.1.7)

Функция, задаваемая этим выражением, обычно называется автокорреляционной функцией случайного процесса.

Ковариационные функции. Частным случаем корреляционной функции является функция автоковариации (ФАК), которая широко используется при анализе сигналов. Она представляет собой статистически усредненное произведение значений центрированной случайной функции X(t)-mx(t) в моменты времени ti и tj и характеризует флюктуационную составляющую процесса:

KХ(ti, tj) =(x(ti)-mx(ti)) (x(tj)-mx(tj)) p(xi,tj; xi,tj) dxi dxj, (9.1.8)

В терминах теории вероятностей ковариационная функция является вторым центральным моментом случайного процесса. Для центрированных случайных процессов ФАК тождественна функции автокорреляции. При произвольных значениях mx ковариационные и корреляционные функции связаны соотношением:

KX(t, t+t) = RX(t, t+t) - mx2(t).

Нормированная функция автоковариации (функция корреляционных коэффициентов):

rХ(t,t+t) = KX(t,t+t)/[s(t)s(t+t)]. (9.1.9)

Функция корреляционных коэффициентов может принимать значения от +1 (полная статистическая корреляция случайных процессов на интервалах t и t+t) до -1 (полная статистическая противоположность процессов на этих интервалах). Попутно отметим, что в математической статистике, а также довольно часто и в технической литературе, эту функцию называют функцией корреляции. При t = 0 значение rХ равно 1, а ФАК вырождается в дисперсию случайного процесса:

KX(t) = DX(t).

Отсюда следует, что для случайных процессов и функций основными характеристиками являются функции математического ожидания и корреляции (ковариации). Особой необходимости в отдельной функции дисперсии не имеется.

Рис. 9.1.7. Реализации и ковариационные функции случайных процессов.

Примеры реализаций двух различных случайных процессов и их нормированных ковариационных функций приведены на рис. 9.1.7.

Свойства функций автоковариации и автокорреляции.

1. Максимум функций наблюдается при t = 0. Это очевидно, т.к. при t = 0 вычисляется степень связи отсчетов с собой же, которая не может быть меньше связи разных отсчетов. Значение максимума функции корреляции равно средней мощности сигнала.

2. Функции автокорреляции и автоковариации являются четными: RX(t) = RX(-t). Последнее также очевидно: X(t)X(t+t) = X(t-t)X(t) при t = t-t. Говоря иначе, моменты двух случайных величин X(t1) и X(t2) не зависят от последовательности, в которой эти величины рассматриваются, и соответственно симметричны относительно своих аргументов: Rx(t1, t2) = Rx(t2, t1).

3. При t Þ ¥ значения ФАК для сигналов, конечных по энергии, стремятся к нулю, что прямо следует из физического смысла ФАК. Это позволяет ограничивать длину ФАК определенным максимальным значением tmax - радиусом корреляции, за пределами которого отсчеты можно считать независимыми. Интегральной характеристикой времени корреляции случайных величин обычно считают эффективный интервал корреляции, определяемый по формуле:

Tk =|rx(t)| dt º (1/Kx(0)) |Kx(t)| dt. (9.1.10)

Отсчеты (сечения) случайных функций, отстоящие друг от друга на расстояние большее Tk, при инженерных расчетах считают некоррелированными.

4. Если к случайной функции X(t) прибавить неслучайную функцию f(t), то ковариационная функция не изменяется. Обозначим новую случайную функцию как Y(t)=X(t)+f(t). Функция математического ожидания новой величины: = + f(t). Отсюда следует, что Y(t) -= X(t) -, и соответственно Ky(t1,t2) = Kx(t1,t2).

5. Если случайную функцию X(t) умножить на неслучайную функцию f(t), то ее корреляционная функция Rx(t1,t2) умножится на f(t1)×f(t2). Обоснование данного свойства проводится по методике, аналогичной предыдущему пункту.

6. При умножении функции случайного процесса на постоянное значение С значения ФАК увеличиваются в С2 раз.

Взаимные моменты случайных процессов второго порядка дают возможность оценить совместные свойства двух случайных процессов X(t) и Y(t) путем анализа произвольной пары выборочных функций xk(t) и yk(t).

Мера связи между двумя случайными процессами X(t) и Y(t) также устанавливается корреляционными функциями, а именно - функциями взаимной корреляции и взаимной ковариации. В общем случае, для произвольных фиксированных моментов времени t1 = t и t2 = t+t:

RXY(t, t+t) = M{X(t)Y(t+t)}. (9.1.11)

KXY(t, t+t) = M{(X(t)-mx(t))(Y(t+t)-my(t+t))}. (9.1.12)

Взаимные функции являются произвольными функциями, не обладают свойствами четности или нечетности, и удовлетворяют следующим соотношениям:

Rxy(-t) = Ryx(t), (9.1.13)

|Rxy(t)|2 £ Rx(0)Ry(0).

Если один из процессов центрированный, то имеет место Rxy(t) = Kxy(t).

Нормированная взаимная ковариационная функция (коэффициент корреляции двух процессов) характеризует степень линейной зависимости между случайными процессами при данном сдвиге t одного процесса по отношению ко второму и определяется выражением:

rxy(t) = Kxy(t)/(sxsy). (9.1.14)

Статистическая независимость случайных процессовопределяет отсутствие связи между значениями двух случайных величин X и Y. Это означает, что плотность вероятности одной случайной величины не зависит от того, какие значения принимает вторая случайная величина. Двумерная плотность вероятностей при этом должна представлять собой произведения одномерных плотностей вероятностей этих двух величин:

p(x,y) = p(x) p(y).

Это условие является обязательным условием статистической независимости случайных величин. В противном случае между случайными величинами может существовать определенная статистическая связь, как линейная, так и нелинейная. Мерой линейной статистической связи является коэффициент корреляции:

rxy = [M{X·Y} – M{X}·M{Y}]/.

Значения rxy могут изменяться в пределах от -1 до +1. В частном случае, если случайные величины связаны линейным соотношением x=ay+b, коэффициент корреляции равен ±1 в зависимости от знака константы а. Случайные величины некоррелированы при rxy=0, при этом из выражения для rxy следует:

M{X·Y} = M{X}·M{Y}.

Из статистической независимости величин следует их некоррелированность. Обратное не очевидно. Так, например, случайные величины x=cos j и y=sin j, где j - случайная величина с равномерным распределением в интервале 0…2p, имеют нулевой коэффициент корреляции, и вместе с тем их зависимость очевидна.

Классификация случайных процессов. Случайные процессы различают по степени однородности их протекания во времени (по аргументу). Кроме моментов первого и второго порядка случайные процессы имеют моменты и более высоких порядков. По мере повышения порядка моментов вероятностная структура случайных процессов и их выборочных реализаций описывается все более детально. Однако практическая оценка этих моментов по выборкам ограничена, в основном, только стационарными случайными процессами.

Стационарные процессы. Процесс называют стационарным (более точно – слабо стационарным), если плотность вероятностей процесса не зависит от начала отсчета времени и если на интервале его существования выполняются условия постоянства математического ожидания и дисперсии, а корреляционная функция является функцией только разности аргументов t = t2-t1, т.e.:

mХ(t1) = mХ(t2) = mХ = const, (9.1.15)

DХ(t1) = DХ(t2) = DХ = const,

RX(t1, t1+t) º Rx(t2-t, t2) = RХ(t) º RХ(-t),

rx(t) = Rx(t)/Dx, rx(0) = 1, |rx(t)| ≤ 1, rx(-t) = rx(t).

Последние выражения свидетельствует о четности корреляционной (а равно и ковариационной) функции и функции корреляционных коэффициентов. Из него вытекает также еще одно свойство смешанных моментов стационарных процессов:

|Rx(t)| £ Rx(0), |Kx(t)| £ Kx(0) º Dx.

Чем медленнее по мере увеличения значений t убывают функции Rx(t) и rx(t), тем больше интервал корреляции случайного процесса, и тем медленнее изменяются во времени его реализации.

Если от времени не зависят и моменты более высоких порядков (в частности, асимметрия и эксцесс), то такой процесс считается строго стационарным. В общем случае класс строго стационарных процессов входит в класс слабо стационарных. И только в случае гауссовых случайных процессов слабая стационарность автоматически влечет строгую, поскольку все характеристики этих процессов определяются средним значением и корреляционной функцией.

Стационарные случайные процессы наиболее часто встречаются при решении физических и технических задач. Теория стационарных случайных функций разработана наиболее полно. Случайные процессы, удовлетворяющие условиям стационарности на ограниченных, интересующих нас интервалах, также обычно рассматривают в классе стационарных и называют квазистационарными.

Нестационарные процессы. В общем случае значения функций математического ожидания, дисперсии и корреляции могут быть зависимыми от момента времени t, т.е. изменяться во времени. Такие процессы составляют класс нестационарных процессов.

Эргодические процессы. Строго корректно характеристики случайных процессов оцениваются путем усреднения по ансамблю реализаций в определенные моменты времени (по сечениям процессов). Но большинство стационарных случайных процессов обладает эргодическим свойством. Сущность его заключается в том, что по одной достаточно длинной реализации процесса можно судить обо всех его статистических свойствах так же, как по любому количеству реализаций. Другими словами, закон распределения случайных величин в таком процессе может быть одним и тем же как по сечению для ансамбля реализаций, так и по координате развития. Такие процессы получили название эргодических (ergodic). Для эргодических процессов имеет место:

mX(t) = M{x(t)} =x(t) dt, (9.1.16)

DХ(t) = M{x(t) - mХ(t)]2} =(x(t) - mХ(t))2 dt, (9.1.17)

RX(t) = M{x(t)x(t+t)} =x(t)x(t+t) dt. (9.1.18)

Эргодичность является очень важным свойством случайных стационарных, и только стационарных процессов. Математическое ожидание эргодического случайного процесса равно постоянной составляющей любой его реализации, а дисперсия является мощностью его флюктуационной составляющей. Так как определение функций производится по ограниченным статистическим данным одной реализации и является только определенным приближением к соответствующим фактическим функциям процессов, целесообразно называть эти функции статистическими.

Свойства эргодичности могут проявляться только по отношению к двум первым моментам случайного процесса, что вполне достаточно для использования соответствующих методик исследования процессов. Практическая проверка эргодичности процесса обычно производится проверкой выполнения условия Слуцкого:

K(t) dt = 0. (9.1.19)

Если ковариационная функция процесса стремится к нулю при возрастании значения аргумента (t), то процесс относится к числу эргодических, по крайней мере, относительно моментов первого и второго порядков.

Пример.Случайная функция задана выражением Z(t)=X(t)+Y, где X(t) - стационарная эргодичная функция, Y- случайная величина, некоррелированная с X(t). Эргодична ли функция Z(t)?

mz(t) = mz(x)+my, Kz(t) = Kx(t)+Dy.

Функция Z(t) стационарна, но не эргодична, так как при t Þ ¥ имеет место Kz(t) Þ Dy.

По формулам (9.1.16-9.1.18) можно вычислить моменты и для детерминированных процессов. Например, для периодической функции f(t)=a sin wt автоковариационная функция описывается выражением:

K(t) = (a2/2) cos wt.

Соответственно, для произвольной периодической функции, представленной рядом Фурье (разложенной по рядам Фурье):

K(t) = (1/2)an2 cos wnt.

Таким образом, автоковариационная функция периодической функции также является периодической функцией от аргумента t - величины временного сдвига.

– Конец работы –

Эта тема принадлежит разделу:

Введение в теорию сигналов и систем.

ТЕМАТИКА ПРАКТИЧЕСКИХ РАБОТ ВВЕДЕНИЕ В ТЕОРИЮ СИГНАЛОВ... Содержание... Общие сведения и понятия...

Если Вам нужно дополнительный материал на эту тему, или Вы не нашли то, что искали, рекомендуем воспользоваться поиском по нашей базе работ: Случайные процессы и функции [1, 2, 25].

Что будем делать с полученным материалом:

Если этот материал оказался полезным ля Вас, Вы можете сохранить его на свою страничку в социальных сетях:

Все темы данного раздела:

ТЕМАТИКА ПРАКТИЧЕСКИХ РАБОТ
Работы выполняются на компьютерах по типовым программам с заданием индивидуальных параметров моделирования, расчетов и обработки данных для каждого студента группы.

Пространство сигналов [1,3,16,29].
Важнейшее свойство аналоговых и дискретных сигналов заключается в том, что их линейные комбинации также являются аналоговыми или дискретными сигналами. Линейные комбинации цифровых сигналов, в силу

Мощность и энергия сигналов [1, 3, 16].
Понятия мощности и энергиив теории сигналов не относятся к характеристикам каких-либо физических величин сигналов, а являются их количественными характеристиками, отража

Пространства функций [1,3,11,16,29].
Пространства функций можно считать обобщением пространства N-мерных сигналов – векторов на аналоговые сигналы, как бесконечномерные векторы, с некоторыми чисто практическими уточнениями.

Функции корреляции сигналов [1, 25, 29].
Функции корреляции сигналов применяются для интегральных количественных оценок формы сигналов и степени их сходства друг с другом. Автокорреляционные функции (АКФ) сигналов

Математическое описание шумов и помех [1, 30].
Шумы и помехи (noise). При детектировании сигналов в сумме с основным информационным сигналом одновременно регистрируются и мешающие сигналы - шумы и помехи самой различ

Разложение сигналов по единичным импульсам [1, 11].
Единичные импульсы. В качестве математической модели единичного импульса при анализе аналоговых сигналов используют дельта-функцию. Дельта-функция

Свертка (конволюция) сигналов [1, 11].
Интеграл Дюамеляпозволяет определять реакцию системы на воздействие s(t) в текущем времени по ее переходной функции g(t) на единичный скачок входного воздействия:

Мощность и энергия сигналов [1,3,16].
Частотное представление применяется не только для спектрального анализа сигналов, но и для упрощения вычислений энергии сигналов и их корреляционных характеристик. Как уже рассматривалось

Энергетические спектры сигналов [1].
Скалярное произведение сигналов. Энергия суммы двух произвольных сигналов u(t) и v(t) определяется выражением: E =

Автокорреляционные функции сигналов [1,25].
Понятие автокорреляционных функций сигналов. Автокорреляционная функция (АКФ, CF - correlation function) сигнала s(t), конечного по энергии, является количественной инте

Взаимные корреляционные функции сигналов [1,19].
Взаимная корреляционная функция (ВКФ) разных сигналов (cross-correlation function, CCF) описывает как степень сходства формы двух сигналов, так и их взаимное расположени

Спектральные плотности корреляционных функций [1,25].
Спектральная плотность АКФ может быть определена из следующих простых соображений. В соответствии с выражением (6.1.1) АКФ представляет собой функцию скалярного

Задачи дискретизации функций [10, 21].
Сигналы и системы дискретного времени. Значения дискретного сигнала определены только при дискретных значениях времени или любой другой независимой переменной. Обычно ег

Равномерная дискретизация [16,21].
Спектр дискретного сигнала. Допустим, что для обработки задается произвольный аналоговый сигнал s(t), имеющий конечный и достаточно компактный фурье-образ S(f). Равномер

Курсовая работа 1 – Исследование и разработка основных правил ограничения интервала суммирования при интерполяции данных рядом Котельникова-Шеннона.
Рис. 7.2.9. Интерполяция по Котельникову-Шеннону. Ряд (7.2.7) позволяет простым введе

Дискретизация по критерию наибольшего отклонения [10].
Задача абсолютно точного восстановления сигнала на практике обычно не ставится, в отличие от задачи минимального физического объема информации, при котором сохраняется возможность ее восстановления

Адаптивная дискретизация [10].
Частота равномерной дискретизации информации рассчитывается по предельным значениям частотных характеристик сигналов. Адаптивная дискретизация ориентирована на динамические характеристики сигнала,

Курсовая работа 2 – Исследовать и разработать программу оценки спектра дискретного сигнала при неравномерном шаге дискретизации.
Самыми простыми способами восстановления сигналов при адаптивной дискретизации являются линейная и квадратичная интерполяции, которые выполняются по уравнениям: f(x)лин = а

Квантование сигналов [5,21].
Дискретизация аналоговых сигналов с преобразованием в цифровую форму связана с квантованием сигналов. Сущность квантования состоит в замене несчетного множества возможных значений функции, в общем

Децимация и интерполяция данных [4,5,17].
Децимацией (прореживанием, сокращением) цифровых данных принято называть уплотнение данных с удалением избыточной информации. Последнее имеет место, если шаг дискретизации данных был установлен изл

Преобразование Фурье [5,17,21].
Дискретное преобразование Фурьеможет быть получено непосредственно из интегрального преобразования дискретизаций аргументов (tk = kDt, fn = nDf):

Преобразование Лапласа.
Дискретное преобразование Лапласа (ДПЛ), как и ДПФ, может быть получено из интегрального преобразования дискретизаций аргументов (tk = kDt, wn = nDw): Y(p) =

Z - преобразование сигналов [2,13,21].
Определение преобразования. Распространенным способом анализа дискретных цифровых последовательностей является z-преобразование (z-transform). Произвольной непр

Дискретная свертка (конволюция) [5,17,21].
Свертка – основной процесс в цифровой обработке сигналов. Поэтому важно уметь эффективно ее вычислять. Уравнение дискретной свертки двух функций (сигналов) може

Функции спектральной плотности [2,25,26].
Каноническое разложение случайных функций. Введем понятие простейшей случайной функции, которая определяется выражением: X(t) = X×j(t), (9.2.1)

Преобразования случайных функций [1, 26, 27].
Системы преобразования случайных функций.Пусть имеется система преобразования с одним входом, на который поступает (подается) входная случайная функция X(t) - функция

Модели случайных сигналов и помех [2, 28].
Наиболее распространенными моделями случайных сигналов и помех являются телеграфный сигнал, белый шум, гауссовый случайный процесс, гауссовый шум.

Хотите получать на электронную почту самые свежие новости?
Education Insider Sample
Подпишитесь на Нашу рассылку
Наша политика приватности обеспечивает 100% безопасность и анонимность Ваших E-Mail
Реклама
Соответствующий теме материал
  • Похожее
  • Популярное
  • Облако тегов
  • Здесь
  • Временно
  • Пусто
Теги