Автокорреляционная функция и ее применение. Курсовая работа: Автокорреляционная функция Примеры расчётов

Периодическая зависимость представляет собой общий тип компонент временного ряда. Можно легко видеть, что каждое наблюдение очень похоже на соседнее; дополнительно, имеется повторяющаяся периодическая составляющая, это означает, что каждое наблюдение также похоже на наблюдение, имевшееся в том же самое время период назад. В общем, периодическая зависимость может быть формально определена как корреляционная зависимость порядка k между каждым i-м элементом ряда и (i-k)-м элементом. Ее можно измерить с помощью автокорреляции (т.е. корреляции между самими членами ряда); k обычно называют лагом (иногда используют эквивалентные термины: сдвиг, запаздывание). Если ошибка измерения не слишком большая, то периодичность можно определить визуально, рассматривая поведение членов ряда через каждые k временных единиц .

Периодические составляющие временного ряда могут быть найдены с помощью коррелограммы. Коррелограмма (автокоррелограмма) показывает численно и графически автокорреляционную функцию (AКФ), иными словами коэффициенты автокорреляции для последовательности лагов из определенного диапазона. На коррелограмме обычно отмечается диапазон в размере двух стандартных ошибок на каждом лаге, однако обычно величина автокорреляции более интересна, чем ее надежность, потому что интерес в основном представляют очень сильные автокорреляции .

При изучении коррелограмм следует помнить, что автокорреляции последовательных лагов формально зависимы между собой. Рассмотрим следующий пример. Если первый член ряда тесно связан со вторым, а второй с третьим, то первый элемент должен также каким-то образом зависеть от третьего и т.д. Это приводит к тому, что периодическая зависимость может существенно измениться после удаления автокорреляций первого порядка, (т.е. после взятия разности с лагом 1).

Цель работы:

1. Дать основные теоретические сведения

2. Дать примеры расчета АКФ

Глава 1. Теоретические сведения

Коэффициент автокорреляции и его оценка

Для полной характеристики случайного процесса недостаточно его математического ожидания и дисперсии. Еще в 1927 г. Е.Е.Слуцкий ввел для зависимых наблюдений понятие «связанного ряда»: вероятность возникновения на определенном месте тех или иных конкретных значений зависит от того, какие значения случайная величина уже получила раньше или будет получать позже. Иными словами, существует поле рассеяния пар значений x(t), x(t+k) временного ряда, где k - постоянный интервал или задержка, характеризующее взаимозависимость последующих реализаций процесса от предыдущих. Теснота этой взаимосвязи оценивается коэффициентами автоковариации –

g (k) = E[(x(t) - m)(x(t + k) - m)] –

и автокорреляции

r (k) = E[(x(t) - m)(x(t + k) - m)] / D ,

где m и D - математическое ожидание и дисперсия случайного процесса. Для расчета автоковариации и автокорреляции реальных процессов необходима информация о совместном распределении вероятностей уровней ряда p(x(t 1),x(t 2)). Однако для стационарных процессов, находящихся в определенном статистическом равновесии, это распределение вероятностей одинаково для всех времен t 1 , t 2 , разделенных одним и тем же интервалом. Поскольку дисперсия стационарного процесса в любой момент времени (как в t, так и в t + k) равна D = g (0), то автокорреляция с задержкой k может быть выражена как

r (k) = g (k) /g (0),

откуда вытекает, что r (0) = 1. В тех же условиях стационарности коэффициент корреляции r (k) между двумя значениями временного ряда зависит лишь от величины временного интервала k и не зависит от самих моментов наблюдений t.

В статистике имеется несколько выборочных оценок теоретических значений автокорреляции r (k) процесса по конечному временному ряду из n наблюдений. Наиболее популярной оценкой является нециклический коэффициент автокорреляции с задержкой k (Андерсон, 1976; Вайну, 1977):

Наиболее важным из различных коэффициентов автокорреляции является первый - r 1 , измеряющий тесноту связи между уровнями x(1), x(2) ,..., x(n -1) и x(2), x(3), ..., x(n).

Распределение коэффициентов автокорреляции неизвестно, позтому для оценки их достоверности иногда используют непараметрическую теорию Андерсона (1976), предложившего статистику

t = r 1 (n -1) 0.5 ,

которая при достаточно большой выборке распределена нормально, имеет нулевую среднюю и дисперсию, равную единице (Тинтнер, 1965).

Автокорреляционные функции

Последовательность коэффициентов корреляции r k , где k = 1, 2, ..., n, как функция интервала k между наблюдениями называется автокорреляционной функцией (АКФ).

Вид выборочной автокорреляционной функции тесно связан со структурой ряда.

· Автокорреляционная функция r k для «белого шума», при k >0, также образует стационарный временной ряд со средним значением 0.

· Для стационарного ряда АКФ быстро убывает с ростом k. При наличии отчетливого тренда автокорреляционная функция приобретает характерный вид очень медленно спадающей кривой .

· В случае выраженной сезонности в графике АКФ также присутствуют выбросы для запаздываний, кратных периоду сезонности, но эти выбросы могут быть завуалированы присутствием тренда или большой дисперсией случайной компоненты.

Рассмотрим примеры автокорреляционной функции:

· на рис. 1 представлен график АКФ, характеризующегося умеренным трендом и неясно выраженной сезонностью;

· рис. 2 демонстрирует АКФ ряда, характеризующегося феноменальной сезонной детерминантой;

· практически незатухающий график АКФ ряда (рис. 3) свидетельствует о наличии отчетливого тренда.

В общем случае можно предполагать, что в рядах, состоящих из отклонений от тренда, автокорреляции нет. Например, на рис. 4 представлен график АКФ для остатков, полученных от сглаживания ряда, очень напоминающий процесс «белого шума». Однако нередки случаи, когда остатки (случайная компонента h) могут оказаться автокоррелированными, например, по следующим причинам :

· в детерминированных или стохастических моделях динамики не учтен существенный фактор

· в модели не учтено несколько несущественных факторов, взаимное влияние которых оказывается существенным вследствие совпадения фаз и направлений их изменения;

· выбран неправильный тип модели (нарушен принцип контринтуитивности);

· случайная компонента имеет специфическую структуру.

Критерий Дарбина-Уотсона

Критерий Дарбина-Уотсона (Durbin, 1969) представляет собой распространенную статистику, предназначенную для тестирования наличия автокорреляции остатков первого порядка после сглаживания ряда или в регрессионных моделях.

Численное значение коэффициента равно

d = [(e(2)-e(1)) 2 + ... + (e(n)-e(n -1)) 2 ]/,

где e(t) - остатки.

Возможные значения критерия находятся в интервале от 0 до 4, причем табулированы его табличные пороговые значения для разных уровней значимости (Лизер, 1971).

Значение d близко к величине 2*(1 - r 1), где r - выборочный коэффициент автокорреляции для остатков. Соответственно, идеальное значение статистики - 2 (автокорреляция отсутствует). Меньшие значения соответствуют положительной автокорреляции остатков, большие – отрицательной .

Например, после сглаживания ряда ряд остатков имеет критерий d = 1.912. Аналогичная статистика после сглаживания ряда - d = 1.638 - свидетельствует о некоторой автокоррелированности остатков.

Глава 2. Примеры практических расчетов с помощью макроса Excel «Автокорреляционная функция»

Все данные взяты с сайта http://e3.prime-tass.ru/macro/

Пример 1. ВВП РФ

Приведем данные о ВВП РФ

первая разность

Исследуем ряд

На диаграммах показаны: исходный ряд (сверху) и автокорреляционная функция до лага 9 (снизу). На нижней диаграмме штриховой линией обозначен уровень «белого шума» - граница статистической значимости коэффициентов корреляции. Видно, что имеется сильная корреляция 1 и 2 порядка, соседних членов ряда, но и удаленных на 1 единицу времени друг от друга. Корреляционные коэффициенты значительно превышают уровень «белого шума». По графику автокорреляции видим наличие четкого тренда.

Ниже даны значения автокорреляционной функции и уровня белого шума

Ошибка АКФ

Если нас интересует внутренняя динамика ряда необходимо найти первую разность его членов, т.е. для каждого квартала найти изменение значения по сравнению с предыдущим кварталом. Для первой разности построим автокорреляционную функцию.

Пример 2. Импорт

значение

разность

Построим автокорреляционную функцию

Ошибка АКФ

Видим, что есть автокорреляция 1-го и 2-го порядков. График показывает наличие тренда. Положительная автокорреляция объясняется неправильно выбранной спецификацией, т.к. линейный тренд тут непригоден, он скорее экспоненциальный. Поэтому сделаем ряд стационарным, взяв первую разность.

Ошибка АКФ

Видим наличие автокорреляции 4-го порядка, что соответствует корреляции данных, отдаленных на год. Автокорреляцию первого порядка не имеем.

Статистика Дарбина-Ватсона (DW) =2,023

Пример 3. Экспорт

Приведем данные

значение

разность


Для исходного ряда имеем:

Ошибка АКФ

Очевидно наличие четкого тренда, значимыми являются коэффициенты автокорреляции 1-го и 2-го порядков. Для первой разности

Ошибка АКФ

Автокорреляции уже не видим, остатки распределены как «белый шум».

Заключение

Другой полезный метод исследования периодичности состоит в исследовании частной автокорреляционной функции (ЧАКФ), представляющей собой углубление понятия обычной автокорреляционной функции. В ЧАКФ устраняется зависимость между промежуточными наблюдениями (наблюдениями внутри лага). Другими словами, частная автокорреляция на данном лаге аналогична обычной автокорреляции, за исключением того, что при вычислении из нее удаляется влияние автокорреляций с меньшими лагами. На лаге 1 (когда нет промежуточных элементов внутри лага), частная автокорреляция равна, очевидно, обычной автокорреляции. На самом деле, частная автокорреляция дает более "чистую" картину периодических зависимостей.

Как отмечалось выше, периодическая составляющая для данного лага k может быть удалена взятием разности соответствующего порядка. Это означает, что из каждого i-го элемента ряда вычитается (i-k)-й элемент. Имеются два довода в пользу таких преобразований. Во-первых, таким образом можно определить скрытые периодические составляющие ряда. Напомним, что автокорреляции на последовательных лагах зависимы. Поэтому удаление некоторых автокорреляций изменит другие автокорреляции, которые, возможно, подавляли их, и сделает некоторые другие сезонные составляющие более заметными. Во-вторых, удаление периодических составляющих делает ряд стационарным, что необходимо для применения некоторых методов анализа.

Литература

1. Гмурман В.Е. Теория вероятностей и математическая статистика. М.: Высшая школа, 1977.

2. Гмурман В.Е. Руководство к решению задач по теории вероятностей и математической статистике. М.: Высшая школа, 1997.

3. Калинина В.Н., Панкин В.Ф. Математическая статистика. М.: Высшая школа, 1994.

4. Мацкевич И.П., Свирид Г.П., Булдык Г.М. Сборник задач и упражнений по высшей математике (Теория вероятностей и математическая статистика). Минск: Вышейша школа, 1996.

5. Тимофеева Л.К., Суханова Е.И., Сафиулин Г.Г. Сборник задач по теории вероятностей и математической статистике / Самарск. экон. ин-т. Самара, 1992.

6. Тимофеева Л.К., Суханова Е.И., Сафиулин Г.Г. Теория вероятностей и математическая статистика / Самарск. гос. экон. акад. Самара, 1994.

7. Тимофеева Л.К., Суханова Е.И. Математика для экономистов. Сборник задач по теории вероятностей и математической статистике. –М.: УМиИЦ «Учебная литература», 1998.


А, следовательно, высоко значимые

Коэффициент автокорреляции может быть оценен и для нестационарного ряда, но в этом случае его вероятностная интерпретация теряется.

Фактически, нарушен принцип омнипотентности

Понятие автокорреляционных функций сигналов . Автокорреляционная функция (АКФ, CF - correlation function) сигнала s(t), конечного по энергии, является количественной интегральной характеристикой формы сигнала, выявления в сигнале характера и параметров взаимной временной связи отсчетов, что всегда имеет место для периодических сигналов, а также интервала и степени зависимости значений отсчетов в текущие моменты времени от предыстории текущего момента. АКФ определяется интегралом от произведения двух копий сигнала s(t), сдвинутых относительно друг друга на время :

B s () =s(t) s(t+) dt = ás(t), s(t+)ñ = ||s(t)|| ||s(t+)|| cos (). (6.1.1)

Как следует из этого выражения, АКФ является скалярным произведением сигнала и его копии в функциональной зависимости от переменной величины значения сдвига . Соответственно, АКФ имеет физическую размерность энергии, а при  = 0 значение АКФ непосредственно равно энергии сигнала и является максимально возможным (косинус угла взаимодействия сигнала с самим собой равен 1):

B s (0) =s(t) 2 dt = E s .

АКФ относится к четным функциям, в чем нетрудно убедиться заменой переменной t = t- в выражении (6.1.1):

B s () = s(t-) s(t) dt = B s (-).

Максимум АКФ, равный энергии сигнала при =0, всегда положителен, а модуль АКФ при любом значении временного сдвига не превосходит энергии сигнала. Последнее прямо вытекает из свойств скалярного произведения (как и неравенство Коши-Буняковского):

ás(t), s(t+)ñ = ||s(t)||||s(t+||cos (),

cos () = 1 при  = 0, ás(t), s(t+)ñ = ||s(t)||||s(t)|| = E s ,

cos () < 1 при   0, ás(t), s(t+)ñ = ||s(t)||||s(t+)||cos () < E s .

В качестве примера на рис. 6.1.1 приведены два сигнала – прямоугольный импульс и радиоимпульс одинаковой длительности Т, и соответствующие данным сигналам формы их АКФ. Амплитуда колебаний радиоимпульса установлена равной
амплитуды прямоугольного импульса, при этом энергии сигналов также будут одинаковыми, что подтверждается равными значениями центральных максимумов АКФ. При конечной длительности импульсов длительности АКФ также конечны, и равны удвоенным значениям длительности импульсов (при сдвиге копии конечного импульса на интервал его длительности как влево, так и вправо, произведение импульса со своей копией становится равным нулю). Частота колебаний АКФ радиоимпульса равна частоте колебаний заполнения радиоимпульса (боковые минимумы и максимумы АКФ возникают каждый раз при последовательных сдвигах копии радиоимпульса на половину периода колебаний его заполнения).

С учетом четности, графическое представление АКФ обычно производится только для положительных значений . На практике сигналы обычно задаются на интервале положительных значений аргументов от 0-Т. Знак + в выражении (6.1.1) означает, что при увеличении значений  копия сигнала s(t+) сдвигается влево по оси t и уходит за 0. Для цифровых сигналов это требует соответствующего продления данных в область отрицательных значений аргумента. А так как при вычислениях интервал задания  обычно много меньше интервала задания сигнала, то более практичным является сдвиг копии сигнала влево по оси аргументов, т.е. применение в выражении (6.1.1) функции s(t-) вместо s(t+).

B s () = s(t) s(t-) dt. (6.1.1")

Для финитных сигналов по мере увеличения значения величины сдвига  временное перекрытие сигнала с его копией уменьшается, а, соответственно, косинус угла взаимодействия и скалярное произведение в целом стремятся к нулю:

= 0.

АКФ, вычисленная по центрированному значению сигнала s(t), представляет собой автоковариационную функцию сигнала:

C s () = dt, (6.1.2)

где  s – среднее значение сигнала. Ковариационные функции связаны с корреляционным функциями достаточно простым соотношением:

C s () = B s () -  s 2 .

АКФ сигналов, ограниченных во времени. На практике обычно исследуются и анализируются сигналы, заданные на определенном интервале. Для сравнения АКФ сигналов, заданных на различных временных интервалах, практическое применение находит модификация АКФ с нормировкой на длину интервала. Так, например, при задании сигнала на интервале :

B s () =
s(t) s(t+) dt. (6.1.3)

АКФ может быть вычислена и для слабозатухающих сигналов с бесконечной энергией, как среднее значение скалярного произведения сигнала и его копии при устремлении интервала задания сигнала к бесконечности:

B s () 
. (6.1.4)

АКФ по данным выражениям имеет физическую размерность мощности, и равна средней взаимной мощности сигнала и его копии в функциональной зависимости от сдвига копии.

АКФ периодических сигналов. Энергия периодических сигналов бесконечна, поэтому АКФ периодических сигналов вычисляется по одному периоду Т, с усреднением скалярного произведения сигнала и его сдвинутой копии в пределах периода:

B s () = (1/Т)s(t) s(t-) dt. (6.1.5)

Математически более строгое выражение:

B s () 
.

При =0 значение нормированной на период АКФ равно средней мощности сигналов в пределах периода. При этом АКФ периодических сигналов является периодической функцией с тем же периодом Т. Так, для сигнала s(t) = A cos( 0 t+ 0) при T=2/ 0 имеем:

B s () =
A cos( 0 t+ 0) A cos( 0 (t-)+ 0) = (A 2 /2) cos( 0 ). (6.1.6)

Полученный результат не зависит от начальной фазы гармонического сигнала, что характерно для любых периодических сигналов и является одним из свойств АКФ. С помощью функций автокорреляции можно проверять наличие периодических свойств в любых произвольных сигналах. Пример автокорреляционной функции периодического сигнала приведен на рис. 6.1.2.

Функции автоковариации (ФАК) вычисляются аналогично, по центрированным значениям сигнала. Замечательной особенностью этих функций являются их простые соотношения с дисперсией  s 2 сигналов (квадратом стандарта - среднего квадратического отклонения значений сигнала от среднего значения). Как известно, значение дисперсии равно средней мощности сигналов, откуда следует:

|C s ()| ≤  s 2 , C s (0) =  s 2  ||s(t)|| 2 . (6.1.7)

Значения ФАК, нормированные на значение дисперсии, представляют собой функцию автокорреляционных коэффициентов:

 s () = C s ()/C s (0) = C s ()/ s 2  cos ). (6.1.8)

Иногда эту функцию называют "истинной" автокорреляционной функцией. В силу нормировки ее значения не зависят от единиц (масштаба) представления значений сигнала s(t) и характеризуют степень линейной связи между значениями сигнала в зависимости от величины сдвига  между отсчетами сигнала. Значения  s ()  cos () могут изменяться от 1 (полная прямая корреляция отсчетов) до -1 (обратная корреляция).

На рис. 6.1.3 приведен пример сигналов s(k) и s1(k) = s(k)+шум с соответствующими этим сигналам коэффициентами ФАК -  s и  s1 . Как видно на графиках, ФАК уверенно выявила наличие периодических колебаний в сигналах. Шум в сигнале s1(k) понизил амплитуду периодических колебаний без изменения периода. Это подтверждает график кривой C s / s 1 , т.е. ФАК сигнала s(k) с нормировкой (для сопоставления) на значение дисперсии сигнала s1(k), где наглядно можно видеть, что шумовые импульсы при полной статистической независимости своих отсчетов вызвали увеличение значения С s1 (0) по отношению к значению C s (0) и несколько "размыли" функцию коэффициентов автоковариации. Это вызвано тем, что значение  s () шумовых сигналов стремится к 1 при   0 и флюктуирует относительно нуля при  ≠ 0, при этом амплитуды флюктуаций статистически независимы и зависят от количества выборок сигнала (стремятся к нулю при увеличении количества отсчетов).

АКФ дискретных сигналов. При интервале дискретизации данных t = const вычисление АКФ выполняется по интервалам  = t и обычно записывается, как дискретная функция номеров n сдвига отсчетов n:

B s (nt) = ts k s k-n . (6.1.9)

Дискретные сигналы обычно задаются в виде числовых массивов определенной длины с нумерацией отсчетов к = 0,1,…К при t=1, а вычисление дискретной АКФ в единицах энергии выполняется в одностороннем варианте с учетом длины массивов. Если используется весь массив сигнала и число отсчетов АКФ равно числу отсчетов массива, то вычисление выполняется по формуле:

B s (n) =
s k s k-n . (6.1.10)

Множитель K/(K-n) в данной функции является поправочным коэффициентом на постепенное уменьшение числа перемножаемых и суммируемых значений по мере увеличения сдвига n. Без этой поправки для нецентрированных сигналов в значениях АКФ появляется тренд суммирования средних значений. При измерениях в единицах мощности сигнала множитель К/(K-n) заменяется на множитель 1/(K-n).

Формула (6.1.10) применяется довольно редко, в основном для детерминированных сигналов с небольшим числом отсчетов. Для случайных и зашумленных сигналов уменьшение знаменателя (K-n) и числа перемножаемых отсчетов по мере увеличения сдвига приводит к нарастанию статистических флюктуаций вычисления АКФ. Большую достоверность в этих условиях обеспечивает вычисление АКФ в единицах мощности сигнала по формуле:

B s (n) = s k s k-n , s k-n = 0 при k-n < 0, (6.1.11)

т.е. с нормированием на постоянный множитель 1/K и с продлением сигнала нулевыми значениями (в левую сторону при сдвигах k-n или в правую сторону при использовании сдвигов k+n). Эта оценка является смещенной и имеет несколько меньшую дисперсию, чем по формуле (6.1.10). Разницу между нормировками по формулам (6.1.10) и (6.1.11) можно наглядно видеть на рис. 6.1.4.

Формулу (6.1.11) можно рассматривать, как усреднение суммы произведений, т.е. как оценку математического ожидания:

B s (n) = M{s k s k - n } 
. (6.1.12)

Практически, дискретная АКФ имеет такие же свойства, как и непрерывная АКФ. Она также является четной, а ее значение при n = 0 равно энергии или мощности дискретного сигнала в зависимости от нормировки.

АКФ зашумленных сигналов . Зашумленный сигнал записывается в виде суммы v(k) = s(k)+q(k). В общем случае, шум не обязательно должен иметь нулевое среднее значение, и нормированная по мощности автокорреляционная функция цифрового сигнала, содержащая N – отсчетов, записывается в следующем виде:

B v (n) = (1/N) s(k)+q(k), s(k-n)+q(k-n) =

= (1/N) [s(k), s(k-n) + s(k), q(k-n) + q(k), s(k-n) + q(k), q(k-n)] =

B s (n) + M{s k q k-n } + M{q k s k-n } + M{q k q k-n }.

B v (n) = B s (n) +
+
+
. (6.1.13)

При статистической независимости полезного сигнала s(k) и шума q(k) с учетом разложения математического ожидания

M{s k q k-n } = M{s k } M{q k-n } =

может использоваться следующая формула:

B v (n) = B s (n) + 2+ . (6.1.13")

Пример зашумленного сигнала и его АКФ в сопоставлении с незашумленным сигналом приведен на рис. 6.1.5.

Из формул (6.1.13) следует, что АКФ зашумленного сигнала состоит из АКФ сигнальной компоненты полезного сигнала с наложенной затухающей до значения 2+шумовой функцией. При больших значениях K, когда→ 0, имеет местоB v (n)  B s (n). Это дает возможность не только выделять по АКФ периодические сигналы, практически полностью скрытые в шуме (мощность шумов много больше мощности сигнала), но и с высокой точностью определять их период и форму в пределах периода, а для одночастотных гармонических сигналов – и их амплитуду с использованием выражения (6.1.6).

Таблица 6.1.

Сигнал Баркера

АКФ сигнала

1, 1, 1, -1, -1, 1, -1

7, 0, -1, 0, -1, 0, -1

1,1,1,-1,-1,-1,1,-1,-1,1,-1

11,0,-1,0,-1,0,-1,0,-1,0,-1

1,1,1,1,1,-1,-1,1,1-1,1,-1,1

13,0,1,0,1,0,1,0,1,0,1,0,1

Кодовые сигналы являются разновидностью дискретных сигналов. На определенном интервале кодового слова Мt они могут иметь только два амплитудных значения: 0 и 1 или 1 и –1. При выделении кодов на существенном уровне шумов форма АКФ кодового слова имеет особое значение. С этой позиции наилучшими считаются такие коды, значения боковых лепестков АКФ которых минимальны по всей длине интервала кодового слова при максимальном значении центрального пика. К числу таких кодов относится код Баркера, приведенный в таблице 6.1. Как видно из таблицы, амплитуда центрального пика кода численно равна значению М, при этом амплитуда боковых осцилляций при n  0 не превышает 1.

Корреляционный анализ используется при необходимости оценить временные свойства сигнала без применения спектрального анализа, например, для оценки скорости изменения или длительности сигнала, временной связи (корреляции) одного сигнала с другим.

Взаимная корреляционная функция определяет временную связь двух сигналов во времени. Если сигналы не зависимы друг от друга, их корреляционная функция равна нулю. Чем шире корреляционная функция, тем большая степень связи двух сигналов друг с другом.

Взаимная корреляционная функция определяется соотношением

Пример получения взаимной корреляционной функции показан на рис.1. Значение корреляционной функции в любой момент x определяется площадью пересечения функцийи сдвинутой копии.

Взаимная корреляционная функция не обязательно симметрична и её максимум может оказаться не в точке x=0.

Автокорреляционной функцией (АКФ) ограниченного во времени сигнала называется выражение вида

где x – временной сдвиг исходного сигнала.

Геометрический смысл автокорреляционной функции заключается в определении площади пересечения функции и её копии, сдвинутой на времяx (Рис.2)

Изменяя время сдвига x до тех пор, пока сигнал и его копия перестанут пересекаться (в данном случае), получим АКФ. Очевидно, что при изменении знака сдвига при одинаковой его величине функция автокорреляции одинакова, т.е., что говорит о четном её характере. Ясно, что приx=0 автокорреляционная функция имеет максимум, при этом

а в свою очередь полная энергия сигнала равна

Таким образом, максимум автокорреляционной функции определяет полную энергию сигнала. При увеличении сдвига x АКФ убывает до нуля.

Примеры

    Прямоугольный импульс (рис. 3 ).

а) - амплитуда,- длительность,- начало,

б) Сдвинутый на импульс,

в) Площадь произведения равна

Для x >0 имеем

и интеграл для x <0

Максимум АКФ равен энергии сигнала:

2) Треугольный импульс. Построение АКФ показано на рис. 4 .

Произведение представляет собой нелинейную функцию от t . Полная энергия сигнала (максимум АКФ) равнаДлительность АКФ равна удвоенной длительности сигнала.

3. Сигнал представляет собой пачку из идентичных импульсов, расположенных на равных расстояниях друг относительно друга. АКФ также будет иметь вид пачки импульсов, удаленных друг от друга на те же расстояния, причем амплитуды импульсов в пачке будут убывать от центра к краям (см. рис. 5 )

14. Общая теория радиосигналов. Понятие узкополосного и широкополосного сигнала. Понятие частоты и фазы радиосигнала, их взаимосвязь. Понятие базы сигнала.

Общие определения

К радиосигналам относят высокочастотные почти гармонические (квазигармонические) колебания, в которых амплитуда или мгновенная частота или фаза медленно меняются по некоторому закону. Процесс изменения одного или нескольких параметров высокочастотного гармонического колебания называется модуляцией. В системе радиосвязи закон модуляции должен соответствовать закону изменения передаваемого низкочастотного сообщения.

Частота исходного высокочастотного гармонического колебания называется несущей частотой. Устройство, создающее это колебание, называется генератором несущей частоты или задающим генератором. К нему предъявляются высокие требования к стабильности амплитуды и частоты.

Несущее колебание имеет вид

где -амплитуда,-частота, 0 -начальная фаза.

Различают амплитудную (АМ),частотную (ЧМ) и фазовую (ФМ) модуляцию. При амплитудной модуляции по закону низкочастотного сигнала меняется мгновенная амплитуда, при частотной модуляции – частота, при фазовой модуляции – фаза. Бывают и смешанные виды модуляции. В отдельный класс можно выделить импульсные виды модуляции и манипуляции, при которых происходит дискретное изменение параметра высокочастотного колебания.

    Основные понятия о базе сигнала

В системах связи используется такое понятие как база сигнала, которое определяется теоремой Котельникова. То есть исходя из нее любой сигнал с финитным спектром можно разложить на несколько отсчетов, взятых через интервалы времени , где F – верхняя граничная частота спектра сигнала (рис. 1).

Рис. 1. Пояснение к тереме Котельникова

В данном случае, если сигнал существует только в течение времени - Т ‚ то количество отсчетов будет равно

Эта величина определяет размерность пространства, в котором представляется сигнал координатами (отсчетами мгновенных значений через временные интервалы ). В этой связи в теории связи эту величину называют базой сигнала:

. (2.2)

В иных случаях говорят, что величина определяет базис сигнала, т.е. количество осей координат, в котором раскладывается сигнал.

    Сравнительный анализ узкополосных и

широкополосных сигналов

В действующих системах связи, использующих дискретные сигналы значение базы для простых сигналов равно (рис. 2). Этот же сигнал можно представить в виде сложного сигнала, база которого будет равна -(см. рис. 2).

Рис. 2. Простой и сложный сигналы

База сигнала указывает на зависимость ширины спектра от длительности сигнала. В случае применения простых сигналов ширина его спектра мала:

в связи с чем такие сигналы называют узкополосными. Следует заметить, что спектр узкополосного сигнала после модуляции не намного отличается от спектра первичного сигнала.

Для сложных сигналов

В этом случае спектр сложного сигнала как до, так и после модуляции намного превышает спектр первичного сигнала, поэтому его принято называть широкополосным.

Для начала вспомним понятие полной фазы радиосигнала

Сигналы, у которых изменяется полная фаза в соответствии с модулирующим сигналом называются сигналами с угловой модуляцией.

Для начала рассмотрим сигналы с фазовой модуляцией (phase modulation PM). У сигналов с PM полная фаза изменяется в соответствии с модулирующим сигналом:

а сам радиосигнал может быть представлен следующим образом:

где называется индексом частотной модуляции или девиацией частоты, а модулирующий сигнал по модулю не превосходит единицыТогда полную фазу радиосигнала можно рассчитать как интеграл от мгновенной частоты:

где - произвольная постоянная интегрирования полной фазы (8). Обратите внимание, что абсолютно не верно подставлять выражение для мгновенной частоты вместо несущей частоты в выражение для полосового сигнала:

так как Правильным является выражение (9)!

16. Сигналы с внутриимпульсной модуляцией. Сигналы с линейной частотной модуляцией. Фазо-кодо-манипулированные сигналы. Математические модели, спектральные характеристики, особенности применения.

Фазо-кодо-манипулированные импульсы (ФКМ)

ФКМ радиоимпульсы характеризуются скачкообразным изменением фазы внутри импульса по определенному закону, например (рис. 1.66):

код трехэлементного сигнала

закон изменения фазы

трехэлементный сигнал

или семиэлементный сигнал (рис. 1.67)

Таким образом, можно сделать выводы:

· АЧС сигналов с ЛЧМ является сплошным.

· Огибающая АЧС определяется формой огибающей сигнала.

· Максимальное значение АЧС определяется энергией сигнала, которая в свою очередь, прямопропорциональна амплитуде и длительности сигнала.

· Ширина спектра равна гдедевиация частоты и не зависит от длительности сигнала.

· База сигнала (коэффициент широкополостности) может бытьn >>1.Поэтому ЛЧМ сигналы называют широкополосными.

ФКМ радиоимпульсы длительностью представляют собой совокупность следующих друг за другом без интерваловэлементарных радиоимпульсов,длительность каждого из них одинакова и равна.Амплитуды и частоты элементарных импульсов одинаковы, а начальные фазы могут отличаться на(или какое-либо другое значение). Закон (код) чередования начальных фаз определяется назначением сигнала. Для ФКМ радиоимпульсов, используемых в радиолокации разработаны соответствующие коды, например:

1, +1, -1 - трехэлементные коды

-два варианта четырехэлементного кода

1 +1 +1, -1, -1, +1, -2 - семиэлементный код

Спектральную плотность кодированных импульсов определяют,используя свойство аддитивности преобразований Фурье, в виде суммы спектральных плотностей элементарных радиоимпульсов.

Графики АЧС для трехэлементного и семиэлементного импульсов приведены на рисунке 1.68

Как видно из приведенных рисунков, ширина спектра ФКМ радиосигналов определяется длительностью элементарного радиоимпульса

Коэффициент широкополостности

Где N -количество элементарных радиоимпульсов.

ФКМ сигналы применяются в широкополосных системах связи, радиолокации, в устройствах идентификации обьектов.

6. Понятие нормированной функции. Понятие ортонормированной системы функций.

Нормирование метрических параметров . Норма функций в пространстве L 2 определяется выражением:

Нетрудно заключить, что чем больше интервал в этой формуле, тем больше (при прочих равных условиях) будет значение нормы. При анализе и сравнении сигналов (как аналоговых, так и многомерных дискретных) такое понятие не всегда удобно, и вместо него очень часто используют понятие нормы, нормированной относительно длины интервала. Для символьного обозначения нормирования будем применять знак  :

||s(t)|| =, ||s n || =.

Метрика сигналов (расстояние между сигналами) при аналогичном нормировании:

d (s(t), v(t)) =, d (s n , v n) =

Эти выражения применяются для вычисления среднеквадратического расхождения сигналов или среднеквадратической погрешности выполнения какой-либо операции при сравнении ее результата с теоретически ожидаемым или априорно известным.

Нормированное скалярное произведение сигналов:

б s(t), v(t)  =s(t)v(t) dt = ||s(t)|| ||v(t)|| cos .

б s n , v n   =(1/N)s n v n = ||s n || ||s n || cos .

Косинус угла (коэффициент корреляции) между сигналами – функциями не изменяет своих значений при вычислении как по нормированным, так и по ненормированным значениям скалярного произведения и нормы сигналов (значения нормировки в числителе и знаменателе выражения (2.1.8) сокращаются). Взаимная перпендикулярность функций определяется аналогично взаимной перпендикулярности векторов условием нулевого значения скалярного произведения.

Норма, метрика и скалярное произведение периодических функций обычно нормируются на длину главного периода Т.

Ортогональные сигналы. Два сигнала называются ортогональными (orthogonal), если имеют нулевое скалярное произведение

б u(t), v(t) =u(t)v(t) dt = 0.

Соответственно, два таких сигнала в своем функциональном пространстве являются взаимно перпендикулярными (угол между сигналами равен  = 90 о), полностью независимыми друг от друга (некоррелированными, r = cos , и имеют нулевую энергию взаимодействия (E uv = 0).

На рисунке 2.3.1 приведены примеры взаимно ортогональных сигналов. Нулевое скалярное произведение двух левых сигналов обеспечивается их формой (равна нулю сумма положительных и отрицательных значений произведения сигналов), а двух правых - взаимным расположением (ненулевые значения сигналов не имеют общих координат).

Рис. 2.3.1. Ортогональные сигналы.

Попутно заметим, что энергия и мощность суммы ортогональных сигналов обладают свойством аддитивности, т.к. имеют нулевое значение скалярного произведения и, соответственно, энергии взаимодействия.

Ортонормированный базис пространства. Множество сигналов – векторов {v k , k = 1, 2, …, N} в N-мерном декартовом пространстве при единичной норме и выполнении условий взаимной ортогональности:

б v m , v n  = (2.3.1)

могут быть приняты в качестве ортонормированного базиса данного пространства. Выражение (2.3.1) обычно записывается в следующей форме:

б v m , v n  =  mn , (2.3.1")

где  mn – импульс Кронекера, равный правой части выражения (2.3.1).

С использованием ортонормированного базиса любой произвольный сигнал можно представить в виде линейной комбинации взвешенных базисных векторов:

s = c 1 v 1 + c 2 v 2 + … + c N v N ,

где весовое значение с k определяется проекцией вектора s на соответствующее координатное направление:

c k =  s, v k  .

При распространении данных положений на функциональное пространство L 2 в качестве координатного базиса пространства мы должны использовать совокупность функций {u 0 (t), u 1 (t), u 2 (t), …}, в пределе - бесконечную, которая должна быть системой ортогональных функций {u k (t), k=0, 1, 2, …}, т.е. все функции на этом отрезке должны быть взаимно ортогональны:

б u m (t), u n (t) =u m (t) u n (t) dt = 0, m = 1, 2, ... ; n = 1, 2, ... ; m  n.

Система ортогональных функций на интервале будет ортонормированной (orthonormal functions), если все функции системы при m=n имеют единичную норму, т.е. выполняются условия:

б u m (t), u m (t) = ||u m (t)|| 2 =(u m (t)) 2 dt = 1, ||u m (t)|| = 1, m = 1, 2, ....

Эти условия можно записать в следующей обобщенной форме:

u m (t)·u n * (t) dt =  m,n .

Система ортогональных функций всегда может быть превращена в ортонормированную путем нормировки, т.е. деления всех функций на их норму.


Курсовая работа

Автокорреляционная функция. Примеры расчётов

Введение

Периодическая зависимость играть роль общего типа компонентов временного ряда. Не сложно заметить, что каждое наблюдение очень похоже на пограничное; к тому же имеется повторяющаяся периодическая составляющая, что означает, что каждое наблюдение также похоже на наблюдение, имевшееся в том же самое время период назад.

В общей сложности, периодическая зависимость может быть формально определена как корреляционная зависимость порядка n между каждым i-м элементом ряда и (i-n) - м элементом. Ее можно измерять с помощью автокорреляции (т.е. корреляции между самими членами ряда); n обычно называют лагом (иногда используют эквивалентные термины: сдвиг, запаздывание). Если оплошность измерения не слишком большая, то периодичность можно определить визуально, рассматривая поведение членов ряда через каждые n временных единиц.

Периодические составляющие временного ряда могут быть отысканы с помощью коррелограммы. Коррелограмма (автокоррелограмма) представляет численно и графически автокорреляционную функцию. Другими словами, коэффициенты автокорреляции для последовательности шагов из определенного диапазона. На коррелограмме просто отмечается диапазон в размере двух стандартных ошибок на каждом лаге, однако обычно величина автокорреляции более интересна, чем ее надежность, потому что интерес в основном представляют очень сильные автокорреляции .

При изучении коррелограмм следует знать следующее: автокорреляции последовательных лагов формально зависимы между собой.

Рассмотрим пример. Если первый член ряда тесно связан со вторым, а второй с третьим, то первый элемент должен также каким-то образом зависеть от третьего и т.д. Это приводит к тому, что периодическая зависимость может существенно измениться после удаления автокорреляций первого порядка, (т.е. после взятия разности с лагом 1).

Цель работы:

1. Дать основные теоретические сведения

2. Дать примеры расчета АКФ

1. Теоретические сведения

1.1 Коэффициент автокорреляции и его оценка

Для совершенной характеристики случайного движения недостаточно его математического ожидания и дисперсии. Вероятность того, что на определенном месте возникнут те или иные конкретные значения зависит от того, какие роли случайная величина получила раньше или будет получать позже.

Другими словами, существует поле рассеяния пар значений x(t), x (t+n) временного ряда, где n - постоянный интервал или задержка, которая характеризует зависимость последующих реализаций процесса от предыдущих. Теснота этой взаимосвязи оценивается коэффициентами автоковариации -

g (n) = E[(x(t) - m) (x (t + n) - m)] -

и автокорреляции

r (n) = E[(x(t) - m) (x (t + n) - m)] / D,

где m и D - математическое ожидание и дисперсия случайного процесса. Для расчета автоковариации и автокорреляции реальных процессов необходима информация о совместном распределении вероятностей уровней ряда p (x(t1), x(t2)).

r (n) = g (n) /g (0),

откуда вытекает, что r (0) = 1. В тех же условиях стационарности множитель корреляции r (n) между двумя значениями временного ряда зависит лишь от величины временного интервала n и не зависит от самих моментов наблюдений t. Коэффициент автокорреляции может быть оценен и для нестационарного ряда, но в этом случае его вероятностная интерпретация теряется.

В статистике имеется несколько выборочных оценок теоретических значений автокорреляции r (n) процесса по конечному временному ряду из n наблюдений. Наиболее популярной оценкой является нециклический коэффициент автокорреляции с задержкой n

автокорреляционный функция excel расчет

Главным из различных коэффициентов автокорреляции является первый - r1, измеряющий тесноту связи между уровнями x(1), x(2),…, x (n -1) и x(2), x(3),…, x(n).

Распределение коэффициентов автокорреляции неизвестно, поэтому для оценки их правдивости иногда используют непараметрическую теорию Андерсона (1976), предложившего статистику

t = r1 (n -1)0.5,

которая при достаточно большой выборке распределена нормально, имеет нулевую среднюю и дисперсию, равную единице (Тинтнер, 1965).

1.2 Автокорреляционные функции

Последовательность коэффициентов корреляции rn, где n = 1, 2,…, n, как функция интервала n между наблюдениями называется автокорреляционной функцией.

Вид выборочной автокорреляционной функции тесно связан со структурой ряда.

· Автокорреляционная функция rn для «белого шума», при n >0, также образует стационарный временной ряд со средним значением 0.

· Для стационарного ряда АКФ быстро убывает с ростом n. При наличии отчетливого тренда автокорреляционная функция приобретает характерный вид очень медленно спадающей кривой .

· В случае выраженной сезонности в графике АКФ также присутствуют выбросы для запаздываний, кратных периоду сезонности, но эти выбросы могут быть завуалированы присутствием тренда или большой дисперсией случайной компоненты.

Рассмотрим примеры автокорреляционной функции:

· на рис. 1 представлен график АКФ, характеризующегося умеренным трендом и неясно выраженной сезонностью;

· рис. 2 демонстрирует АКФ ряда, характеризующегося феноменальной сезонной детерминантой;

· практически незатухающий график АКФ ряда (рис. 3) свидетельствует о наличии отчетливого тренда.

В общем случае можно предполагать, что в рядах, состоящих из отклонений от тренда, автокорреляции нет. Например, на рис. 4 представлен график АКФ для остатков, полученных от сглаживания ряда, очень напоминающий процесс «белого шума». Однако нередки случаи, когда остатки (случайная компонента h) могут оказаться автокоррелированными, например, по следующим причинам :

· в детерминированных или стохастических моделях динамики не учтен существенный фактор фактически, нарушен принцип омнипотентности

· в модели не учтено несколько несущественных факторов, взаимное влияние которых оказывается существенным вследствие совпадения фаз и направлений их изменения;

· выбран неправильный тип модели (нарушен принцип контринтуитивности);

· случайная компонента имеет специфическую структуру.

1.3 Критерий Дарбина-Уотсона

Критерий Дарбина-Уотсона (Durbin, 1969) представляет собой распространенную статистику, предназначенную для тестирования наличия автокорреляции остатков первого порядка после сглаживания ряда или в регрессионных моделях.

Численное значение коэффициента равно

d = [(e(2) - e(1))2 +… + (e(n) - e (n -1))2]/,

где e(t) - остатки.

Возможные значения критерия находятся в интервале от 0 до 4, причем табулированы его табличные пороговые значения для разных уровней значимости (Лизер, 1971).

Значение d близко к величине 2*(1 - r1), где r - выборочный коэффициент автокорреляции для остатков. Соответственно, идеальное значение статистики - 2 (автокорреляция отсутствует). Меньшие значения соответствуют положительной автокорреляции остатков, большие - отрицательной .

Например, после сглаживания ряда ряд остатков имеет критерий d = 1.912. Аналогичная статистика после сглаживания ряда - d = 1.638 - свидетельствует о некоторой автокоррелированности остатков.

2. Примеры практических расчетов с помощью макроса Excel «Автокорреляционная функция»

Все данные взяты с сайта http://e3.prime-tass.ru/macro/

Пример 1 . ВВП РФ

Приведем данные о ВВП РФ

первая разность

Исследуем ряд

На диаграммах показаны: исходный ряд (сверху) и автокорреляционная функция до лага 9 (снизу). На нижней диаграмме штриховой линией обозначен уровень «белого шума» - граница статистической значимости коэффициентов корреляции. Видно, что имеется сильная корреляция 1 и 2 порядка, соседних членов ряда, но и удаленных на 1 единицу времени друг от друга. Корреляционные коэффициенты значительно превышают уровень «белого шума». По графику автокорреляции видим наличие четкого тренда.

Ниже даны значения автокорреляционной функции и уровня белого шума

Ошибка АКФ

Если нас интересует внутренняя динамика ряда необходимо найти первую разность его членов, т.е. для каждого квартала найти изменение значения по сравнению с предыдущим кварталом. Для первой разности построим автокорреляционную функцию.

Статистика Дарбина-Ватсона (DW) =1,813

Статистика Дарбина-Уотсона показывает, что автокорреляции 1-го порядка нет. По графику можно видеть, что первые разности возрастают, т. к. тренд восходящий. Видна автокорреляция 2 и 4-го порядков, что говорит о полугодовой и годовой сезонности. Значения функции и границы для «белого шума» представлены ниже

Ошибка АКФ

Пример 2 . Импорт

значение

разность

Построим автокорреляционную функцию

Ошибка АКФ

Видим, что есть автокорреляция 1-го и 2-го порядков. График показывает наличие тренда. Положительная автокорреляция объясняется неправильно выбранной спецификацией, т. к. линейный тренд тут непригоден, он скорее экспоненциальный. Поэтому сделаем ряд стационарным, взяв первую разность.

Ошибка АКФ

Видим наличие автокорреляции 4-го порядка, что соответствует корреляции данных, отдаленных на год. Автокорреляцию первого порядка не имеем.

Статистика Дарбина-Ватсона (DW) =2,023

Пример 3 . Экспорт

Приведем данные

значение

разность

Для исходного ряда имеем:

Ошибка АКФ

Очевидно наличие четкого тренда, значимыми являются коэффициенты автокорреляции 1-го и 2-го порядков. Для первой разности

Ошибка АКФ

Автокорреляции уже не видим, остатки распределены как «белый шум».

Заключение

Еще одна полезная технология исследования периодичности состоит в обследовании частной автокорреляционной функции (ЧАКФ), которая представляет собой углубление взгляда обычной автокорреляционной функции.

В частной автокорреляционной функции ликвидируется зависимость между промежуточными наблюдениями. Иными словами, частная автокорреляция на данном лаге похожа на обычную автокорреляцию, исключая то, что при вычислении из нее убирается влияние автокорреляций с меньшими лагами. На лаге 1 (когда нет промежуточных элементов внутри лага), частная автокорреляция равна обычной автокорреляции. Частная автокорреляция дает более «чистую» картину периодических зависимостей.

Как было отмечено ранее, периодическая составляющая для данного лага n может быть удалена взятием разности соответствующего порядка. Это обозначает, что из каждого i-го элемента ряда вычитается (i-n) - й элемент. В пользу таких преобразований имеются доводы. Во-первых, таким образом можно определить скрытые периодические составляющие ряда. Напомним, что автокорреляции на последовательных лагах зависимы. Поэтому удаление некоторых автокорреляций изменит другие автокорреляции, которые, возможно, подавляли их, и сделает некоторые другие сезонные составляющие более заметными. Во-вторых, удаление периодических составляющих делает ряд стационарным, что необходимо для применения некоторых методов анализа.

Литература

1. В.Е. Гмурман «Теория вероятностей и математическая статистика». Москва: Высшая школа, 1979 г.

2. В.Е Гмурман. «Руководство к решению задач по теории вероятностей и математической статистике». Москва: Высшая школа, 1997 г.

3. В.Н. Калинина, В.Ф. Панкин. «Математическая статистика». Москва: Высшая школа, 1994 г.

4. И.П. Мацкевич, Г.П. Свирид, Г.М. Булдык. «Сборник задач и упражнений по высшей математике (Теория вероятностей и математическая статистика)». Высшая школа, 1998 г.

5. Л.К. Тимофеева, Е.И. Суханова, Г.Г. Сафиуллин. «Сборник задач по теории вероятностей и математической статистике».

6. Тимофеева Л.К., Суханова Е.И. «Математика для экономистов». Сборник задач по теории вероятностей и математической статистике. - М.: У «Учебная литература», 1999 г.

Подобные документы

    Непрерывность функции: определение, практические примеры, график, приращение. Точка разрыва первого и второго рода функции, примеры. Бесконечность односторонних пределов функции. Практический пример отложения точки разрыва второго рода на графике.

    презентация , добавлен 21.09.2013

    Несобственные интегралы первого, второго и третьего рода. Вычисление несобственных интегралов с помощью вычетов. Несобственные интегралы, содержащие параметр. Гамма-функция и бета-функция Эйлера. Критерий Коши и эквивалентные условия сходимости.

    курсовая работа , добавлен 20.09.2013

    Разложение функции в ряд Фурье, поиск коэффициентов. Изменение порядка интегрирования, его предел. Расчет площади фигуры, ограниченной графиками функций, с помощью двойного интеграла, объема тела, ограниченного поверхностями, с помощью тройного интеграла.

    контрольная работа , добавлен 28.03.2014

    Математика и информатика. Решение системы линейных алгебраических уравнений методом Крамера. Работа в текстовом редакторе MS WORD. Рисование с помощью графического редактора. Определение вероятности. Построение графика функции с помощью MS Excel.

    контрольная работа , добавлен 10.01.2009

    Элементарные функции, их анализ. Линейная функция. Квадратичная функция. Степенная функция. Показательная функция (экспонента). Логарифмическая функция. Тригонометрическая функция: синус, косинус, тангенс, котангенс. Обратная функция: аrcsin x, аrctg x.

    реферат , добавлен 17.02.2008

    Понятия зависимой, независимой переменных, области определения функции. Примеры нахождения области функции. Примеры функций нескольких переменных: линейная, квадратическая, функция Кобба-Дугласа. Построение графика и линии уровня функции двух переменных.

    презентация , добавлен 17.09.2013

    Логарифм как многозначная функция. Обозначение главного значения логарифма. Свойства логарифма на случай комплексного аргумента. Понятие обратных тригонометрических функций (арккосинуса, арктангенса, арккотангенса), практические примеры их вычисления.

    презентация , добавлен 17.09.2013

    Условия разложения функций для тригонометрического ряда. Определение коэффициентов разложения с помощью ортогональности систем тригонометрических функций. Понятие периодического продолжения функции, заданной на отрезке. Ряд Фурье функции у=f(x).

    презентация , добавлен 18.09.2013

    Построение массива конечных разностей. Выполнение экстраполяции. Вычисление приближенной функции с помощью многочлена Лагранжа. Определение значения функции с помощью формул Ньютона. Квадратичная сплайн-интерполяция. Среднеквадратичная аппроксимация.

    контрольная работа , добавлен 01.12.2009

    Определение значения заданной функции в указанной точке при помощи интерполяционной схемы Эйткина. Проверка правильности данного решения с помощью кубического сплайна. Практическая реализация данного задания на языке Pascal и при помощи таблиц Excel.

Задача корреляционного анализа возникла из радиолокации, когда нужно было сравнить одинаковые сигналы, смещённые во времени.

Для количественного определения степени отличия сигнала и его смещённой во времени копии
принято вводить автокорреляционную функцию (АКФ) сигнала равную скалярному произведению сигнала и его сдвинутой копии.

(4.1)

Свойства АКФ

1) При
автокорреляционная функция становится равной энергии сигнала:

(4.2)

2) АКФ – функция чётная

(4.3)

3) Важное свойство автокорреляционной функции состоит в следующем: при любом значении временного сдвига модуль АКФ не превосходит энергии сигнала:

4) Обычно, АКФ представляется симметричной линей с центральным максимумом, который всегда положителен. При этом в зависимости от вида сигнала автокорреляционная функция может иметь как монотонно убывающей, так и колеблющийся характер.

Существует тесная связь между АКФ и энергетическим спектром сигнала.

В соответствии с формулой (4.1) АКФ есть скалярное произведение
. Здесь символомобозначена смещённая во времени копия сигнала
.

Обратившись к теореме Планшереля – можно записать равенство:

(4.4) Таким образом, приходим к результату

(4.5)

Квадрат модуля спектральной плотности представляет собой энергетический спектр сигнала. Итак энергетический спектр и автокорреляционная функция связаны парой преобразований Фурье.

Ясно, что имеется и обратное соотношение

(4.6)

Эти результаты принципиально важны по двум причинам: во-первых, оказывается возможным оценивать корреляционные свойства сигналов, исходя из распределения их энергии по спектру. Во-вторых, формулы (4.5), (4.6) указывают путь экспериментального определения энергетического спектра. Часто удобнее вначале получить АКФ, а затем, используя преобразование Фурье, найти энергетический спектр сигнала. Такой приём получил распространение при исследовании свойств сигналов с помощью быстродействующих ЭВМ в реальном масштабе времени.

Часто вводят удобный числовой параметр – интервал корреляции , представляющий собой оценку ширины основного лепестка АКФ.

9.. Взаимокорреляционная функция и ее свойства. Связь взаимокорреляционной функции и взаимного энергетического спектра.

Взаимокорреляционная функция двух сигналов

Взаимокорреляционной функцией (ВКФ) двух вещественных сигналов и называется скалярное произведение вида:

(4.8)

ВКФ служит мерой «устойчивости» ортогонального состояния при сдвигах сигналов во времени.

При прохождении этих сигналов через различные устройства возможно, что сигнал будет сдвинут относительно сигнала на некоторое время .

Свойства ВКФ.

1) В отличие от АКФ одиночного сигнала, ВКФ, описывающая свойства системы двух независимых сигналов, не является чётной функцией аргумента :

(4.9)

2) Если рассматриваемые сигналы имеют конечные энергии, то их ВКФ ограничена.

3) При
значения ВКФ вовсе не обязаны достигать максимума.

Примером ВКФ может служить взаимокорреляционная функция прямоугольного и треугольного видеоимпульсов.

На основании теоремы Планшереля

получаем

(4.11)

Таким образом, взаимокорреляционная функция и взаимный энергетический спектр связаны между собой парой преобразований Фурье.