РУБРИКИ

Математические основы теории систем

   РЕКЛАМА

Главная

Логика

Логистика

Маркетинг

Масс-медиа и реклама

Математика

Медицина

Международное публичное право

Международное частное право

Международные отношения

История

Искусство

Биология

Медицина

Педагогика

Психология

Авиация и космонавтика

Административное право

Арбитражный процесс

Архитектура

Экологическое право

Экология

Экономика

Экономико-мат. моделирование

Экономическая география

Экономическая теория

Эргономика

Этика

Языковедение

ПОДПИСАТЬСЯ

Рассылка E-mail

ПОИСК

Математические основы теории систем

системы для дискретных (квантованных) значений для всех переменных. Иными,

словами в качестве такой системы берется дискретная по времени система.

Исследование дискретных систем во многом подобно исследованию

непрерывных систем.

Преобразование непрерывных систем в дискретные.

Пусть дана непрерывная система Y с уравнениями состояния

(1) x= Ax + Bu;

(2) y= Cx + Du, где

A,B,C,D суть (n*n), (n*r), (p*n) и (p*r)- постоянные матрицы

соответственно.

Предположим, что компоненты входного вектора замеряются

периодически и фиксируются (сохраняются неизменными) в течении каждого

интервала (kT,(k+1)T), где k=...,-1,0,1...

U

y

рис.1

На рисунке 1 показано, что такая операция над входным вектором

реализуется с помощью блока квантования, включенного между входом U и

системой Y.

Если ?(t) является входом блока квантования, то его выход ?0 будет

ступенчатой функцией

?0(t)=?(kT), kT<t?(k+1)T

Будем полагать, что вход измеряется через каждые T секунд, где T-

период повторения или период квантования. Вход системы задается

последовательностью векторов {Uk}, причем Uk=U(kT+).

Период повторения T выбирается достаточно малым, так что

интерполирование последовательностей {xk}, {yk}, где xk= x(kT+), yk=

y(kT+), определяет функции x(t), y(t) с приемлемой точностью для всех t. По

этой причине имеет

смысл искать зависимости между последовательностями {xk},{yk} и входной

последовательностью. Наиболее удобно представить такие последовательности в

виде рекуррентных соотношений выражающих xk+1 и yk+1 через xk и Uk .

Используя выведенные ранее уравнения и вводя обозначение:

(3) F=exp AT,

T

(4) G=( ? [exp(A?)]d?)B, получим

0

получим

(5) xk+1= Fxk+Cuk

(6) yk+1= Cxk+1+Duk+1

Выражения (5),(6) являются уравнениями состояния дискретной системы,

вход, выход и состояние которой определяется последовательностями векторов

{uk}, {xk}, {yk} соответственно. Поскольку A,B,C,D постоянные матрицы, эта

система линейна и стационарна.

Из (5) можно найти xk как функцию начального состояния x0 и

последовательности {Ui}r-1

k-1

(7) xk=Fkx0+ S FiGUk-i-1, k=1,2,3,...

i=0

РЕШЕТЧАТЫЕ ФУНКЦИИ.

Функции, определенные только в некоторых точках t1,t2 и т.д

называются решетчатыми.

Пусть t= nT- равностоящие точки, где n- любое целое число, а T-

постоянная, называемая периодом дискретности.

Тогда определенные в этих точка функции f[nT]

f[nT]

Любой f(t)- непрерывной можно

поставить в соответствие

некоторое множество решетчатых

функций, если представить переменную

t=nT+?T (0???1). При каждом

фиксированном значении р переменной

функцию f(nT+?T)

-4T -3T -2T -T 0 T 2T 3T 4T nT

можно рассматривать как функцию, определенную в точках ?T, (?+1)T,

(?+2)T,....Такие функции называются смешанными решетчатыми функциями.

f(nT+?T)=f[nT,?T]

(8) f (n-1)T,T = f[nT,0]

Конечные разности решетчатых функций.

Выражение ?f[n]=f[n+1]-f[n] (9) называется разностью первого порядка

решетчатой функции f[n]

?2f(n)=? f[n+1]- ?f[n]- вторая разность

?kf(n)=?k-1f[n+1]- ?k-1f[n]- к-тая разность

Выражение значения решетчатой функции через ее конечные разности до

порядка l включительно:

l

(10) f[n+l]= S (kl) ?kf[n]; где (kt)=l!/k!(l-k)

k=0

РАЗНОСТНЫЕ УРАВНЕНИЯ .

Всякое соотношение, связывающую решетчатую функцию x[n] и ее разности

до некоторого порядка K:

(11) Ф[n, x[n], ? x[n],.., ?kx[n] =0, называется разностным

уравнением. Соотношение (11) можно записать:

(12) Ф[n,x[n],x[n+1],x[n+2],...,x[n+k]=0, уравнение порядка K.

Рассмотрим пример.

(13) ?3x[n]+ ?2x[n]+2?x[n]+2x[n]=f[n]

(13) можно переписать x[n+3]-2x[n+2]+3x[n+1]=f[n], если m=n+1, тогда:

(14) x[m+2]-2x[m+1]+3x[m]=f[m-1]

Таким образом, уравнение (13) является уравнением второго порядка.

Решетчатая функция x[n], которая обращает уравнение в тождество,

называется решением разностного уравнения. Решение разностного уравнения

(РУ) определяется наиболее просто, если (РУ) порядка К можно разрешить

относительно функции x[n+k], т.е представить в виде:

(15) x[n+K]= F[n,x[n],x[n+1],...,x[n+k-1]]

Зададим К начальных условий при некотором значении аргумента n=n0:

x[n0]=x0, x[n0+1]=x1,..., x[n0+K-1]=xk-1

Соотношение (15) определяет по заданным начальным условиям значение

решения при n=n0+K. Используя значение x[n0+K], вычислим последовательно

x[n0+K+1], x[n0+K+2] и все остальные x[n] при n?n0+K.

Решение РУ (15) x[n]= ?[n,x0, x1,...,xk-1].

Рассматриваемая начальные условия мы получим общее решение уравнения

(15) как функцию К произвольных постоянных C0,C1,..,Ck-1

(16) x[n]=?[n,C0,C1,...,Ck-1]

Линейное РУ порядка К:

(17) a0[n]?rx[n]+a1[n]?r-1x[n]+....+ar[n]x[n]=f[n]

где r?K, f[n], a0[n], a1[n], ... ,ar[n] - заданные решетчатые функции.

Данное уравнение называется неоднородным РУ, если правая часть f[n]?0, в

противном случае это уравнение однородно.

Если решетчатые функции ?1[n], ... , ?l[n] являются решением линейного

однородного РУ:

x[n+K]+b1[n]x[n+K-1]+ ... +bk[n]x[n]=0, то функция

l

?[n]= S Ci?i[n], где (i=1,2, ... ,l) - произвольные постоянные,

i=1

также является его решением.

Совокупность К линейно независимых решений разностного однородного

уравнения порядка К называется фундаментальной системой решений.

Если при n?n0 существует фундаментальная система решений

?1[n],...,?k[n] однородного разностного уравнения, то общее решение этого

уравнения выражается:

k

?[n]= S Ci?i[n]

i=1

Общее решение линейного неоднородного разностного уравнения:

x[n+K]+b1[n]x[n+K-1]+ ... +bk[n]x[n]=f[n] равно сумме

частного решения ?[n] и общего решения соответствующего однородного ур-я,

т.е.

k

x[n]=?[n]+ S Ci?i[n]

i=1

где Ci - произвольные постоянные, Ei[n] - решение однородного уравнения,

удовлетворяющие:

W(E1[n0],...,Ek[n0])?0 (определитель).

Z - преобразования и его свойства.

U y

t

рис. 3.

Для изучения свойств и соотношений, связывающих входные и выходные

последовательности системы, изображенной на рис.3, воспользуемся Z-

преобразованием. (На рис.3 показана модель системы вход U с импульсным

модулятором).

Определение Z-преобразование. функции U(0;?) представляет собой

функцию U комплексной переменной Z определяемую выражением:

?

(18) U(z)=Z(U)= S U(nT)Z-n , где

n=0

Т-период повторения импульсного модулятора.

Замечание: Если U имеет разрыв в любой дискретный момент kT, смысл

соотношения (18) становится не вполне понятным. Поэтому будем всегда

считать

U(nT)=U(nT+), n=0,1, ...

,т.е. все функции от времени, которые будут преобразовываться в дискретные,

будут равны 0 для t<0, и если они непрерывны в некоторые дискретные

моменты, то должны существовать значения U(nT-) и U(nT+).

Пример: функция времени z-преобразование

1(t) 1/(1-z-1)

e-?t 1/(1-z-1e-?t)

Согласно (18) U(z) определяется степенным рядом от z-1. Этот ряд сходится

для всех z за пределами окружности |z|=Ru, где

Ru=lim SVp ? |U(nT)|

n>?

Будем полагать, что каждая рассматриваемая функция имеет конечный

радиус сходимости.

Если U является входом импульсного модулятора, то его выход равен

?

U= S U(kT)?(t-kT)

k=0

Такая последовательность импульсов имеет преобразование Лапласа

?

U(S)= S U(kT)e-srT

k=0

Сравнивая (18) с данным соотношением, замечаем, что

U(z)|z=esT =U(S)

Th. Рассмотрим систему, изображенную на рис. 3. Пусть H(z) будет Z-

преобразованием импульсной реакции h. Пусть у будет реакцией при нулевом

состоянии на входе U, прикладываемый в момент t=0.

Тогда получим:

(19) Y(Z)=H(Z)U(Z) ,для |Z|>max(Ru,Rk)

Выражение (19) аналогично выражению Y(S)=H(S)V(S), которое

устанавливает зависимость реакции при нулевом состоянии, импульсной

реакции U входа непрерывной системы. По этой причине будем называть H(Z)

дискретной передаточной функцией или передаточной функцией, Z-функцией.

?

(20) H(Z)U(Z)= S ylz-e=Y(Z), |Z|>max(Rh, Ru)

l=0

Формула для нахождения последовательности {y(kT)}, т.е. дискретного

выхода.

Свойства Z-преобразования.

1. Теорема линейности.

Z(?f)=?Z(f ) ? комплексных чисел ?, ?|Z|>Rf

Z(f+g)=Z(f)+Z(g) ?|Z|>max (Rf,Rg)

2. Теорема обращения

f(nT)=1/2?j ?Г F(Z)Z-1 dZ, n=0,1,...,

где Г - любая замкнутая спрямляемая кривая, охватывающая начало координат

и лежащая вне окружности |Z|=R>Rf.

3. Теорема о начальном значении.

f(0+)= lim F(Z)

Z>?

4. Теорема сдвига.

Если F(Z) есть Z- преобразование последовательности {f0,f1,f2,...}, то Z-

1F(Z) есть Z-преобразование последовательности {0,f0,f1,f2,...}.

1.6. СТРУКТУРНЫЕ СВОЙСТВА ОБЪЕКТОВ УПРАВЛЕНИЯ.

Введение: Реакция любой линейной системы содержит две составляющие:

реакцию при нулевом входе и реакцию при нулевом состоянии, причем последняя

характеризуется передаточной функцией.

Рассмотрим линейную стационарную систему У с несколькими входами и

выходами описываемую уравнениями:

(1) x=Ax+Bu

(2) y=Cx+Du

где A,B,C,D- (n*n), (n*r), (p*n) и (p*r)- постоянные матрицы;

x- n-мерный вектор, характеризующий состояние данной системы;

u- входной r-мерный вектор, у- входной p-мерный вектор.

Будем говорить, что система У управляема, если при известных

матрицах A и B и состоянии x0 системы при t0 можно найти некоторый вход

u[t0,t0+T], который будет переводить систему из состояния x0 в нулевое

состояние 0 в момент t0+T.

Опр. Система Ф, определенная уравнением (1) называется управляемой в

том и только том случае, если для всех х0??N при начальном состоянии x0

системы в момент t=0 и некотором конечном T(T>0) найдется вход U[0,T]

такой, что:

(3) x(T;x0;0;U[0;T])=0

Опр. Состояние х1 системы У, описываемой уравнением (1), будем

называть управляемым в том и лишь в том случае, если для некоторого

конечного Т существует управление U[0,T] такое, что:

x(T;x1;0;U[0;T])=0

НАБЛЮДАЕМОСТЬ.

Понятие наблюдаемости тесно связано с понятием управляемости.

Управляемость означает, что, зная начальное состояние и матрицы,

характеризующие рассматриваемую систему, можно найти вход, который

переводит это состояние в нулевое конечное время. Наблюдаемость означает,

что знания матриц характеризующих систему, и реакции при нулевом входе

Y[0,t] на конечном интервале достаточно для однозначного определения

начального состояния данной системы.

Определение: система, описываемая (1) и (2) называется наблюдаемой в

том случае, когда, для некоторого Т>0 и всех возможных начальных состояний

х(0), значения матриц А и С и реакции при нулевом входе Y[0,t]

достаточно, чтобы определить начальное состояние x(0).

Тh: Система, Y описываемая (1), (2) наблюдаема в том и лишь в том,

случае, если на np столбцов матрицы Р=[С* ,А* С* ,..,А*(n-1) С* ] натянуто

пространство состояний ? . ( Матрицы А*, С*,. получаются транспонированием

матриц А, С,. и заменой их элементов комплексно сопряженными. )

ХАРАКТЕРИСТИКИ УПРАВЛЯЕМОСТИ.

Тh: Система Y , описываемая уравнением (1), управляема тогда и только

тогда, когда на вектор столбцы В,АВ,..,B(n-1) матрицы Q?[В,АВ,...,А(n-1)В]

натянуто пространство состояний системы Y. Рассмотрим интерпритацию этой

теоремы в терминах канонической экордановой формы матрицы системы. Такая

форма позволяет определить управление, требуемое для перевода любого

состояния в нулевое. Для простоты будем рассматривать систему с одним

входом, описываемую уравнением:

(6) х=Ах+Вu

где А постоянная матрица порядка n, В -n-мерный вектор, u-скалярный вход.

Если минимальный многочлен матрицы А имеет степень k?(n-1, то

система, характеризуемая уравнением (6), неуправляема.

Произведем замену переменных, положив х=Тy, причем матрица Т такова, что Т(-

1)АТ=J, где J-каноническая форма Экордана матрицы А. Если обозначить е=Т(-

1)В, то уравнение (6) преобразуется к виду:

(7) y=Jy+eU

Th. Пусть А имеет различные собственные значения, так что

J=diag(?1,...,?N). Тогда система, описываемая (6), управляема в том и

только в том случае, когда все компоненты вектора e=Т-1В отличны от нуля.

1.7. СИГНАЛЫ В ЗАДАЧАХ УПРАВЛЕНИЯ И НАБЛЮДЕНИЯ ДИНАМИЧЕСКИХ ОБЬЕКТОВ.

Временная функция (форма передачи), передаваемая материальным

параметром, называемым носителем информации или пространственное размещение

(форма заполнения ), называется сигналом, если она по меньшей мере с

помощью одного из ее параметров передает информацию.

пример:

t t

Носителем информации здесь является электрическое напряжение;

информационным параметром амплитуда импульса. В качестве сигнала можно

рассматривать временную функцию U(t) (математическую функцию).

Сигналы называются аналоговыми или дискретными, если они передают или

изображают аналоговую или дискретную информацию. В аналоговых сигналах

информационные параметры в пределах определенных границ могут принимать

любое значение, а в дискретных сигналах они принимают только дискретные

значения.

Дискретные сигналы, информационные параметры, которых могут принимать

только два дискретных значения, называются двоичными.

Цифровыми сигналами являются закодированные дискретные сигналы, в

которых дискретные значения информационного параметра соответствуют словам

условного алфавита. Все дискретные сигналы не являющиеся цифровыми

называются многозначными. Для классификации сигналов имеет значение

разделения их на непрерывные и импульсные.

Сигналы называются непрерывными, если их информационные параметры

изменяются в любой момент времени, и импульсными, если они изменяются в

дискретные моменты времени.

Схема прохождения сигналов кибернетической системы представляет собой

граничное изображение (статической и динамической) характеристик звеньев и

связей с общей системой. Схема прохождения сигналов представляет собой

графическое изображение математической модели системы. Математическая

модель является совокупностью всех уравнений, которые описывают соотношение

между всеми рассматриваемыми входными и выходными сигналами. Для

изображения схем прохождения сигналов наиболее употребительны два способа,

которые имеют определенные преимущества: способ изображения в виде

структурной схемы и изображение в виде графа прохождения сигнала. При

изображении схемы прохождения сигналов в виде структурной схемы звенья

показываются в виде блоков, а стрелками указываются направления прохождения

сигналов. Структурная схема представляет собой схематическое (качественное)

изображение передаточных звеньев системы и ее связей через входные и

выходные сигналы. Качественное описание характеристики звена с выходными

сигналами U1,...,Um должна пониматься характеристика передачи в

установившемся режиме, которая описывается статическим передаточным

уравнением:

1) xg=x(?)=lim x(t)=f(U1,...,U v)

t>?

в случае если существует х (?).

Под динамическими характеристиками понимается зависимость выхода

системы от ее входа в переходном процессе. Динамическая характеристика

системы или звена может, быть описана различными способами.

Для аналоговых звеньев, входные и выходные характеристики которых

изменяются непрерывно, характеристика передачи может быть, описана

следующим дифференциальным уравнением в скалярной форме (после деления всех

членов на коэффициент х”)

(2) xn +An-1 xn-1+...+A1 x+A0 x=Bm Um+...+B0 U

где U(t)-входной сигнал, x(t) выходной сигнал.

x=q1, x=q2, xn-1=qn получим уравнения системы для случая одномерного

пространства:

(3) q(t)=Aq(t)+Bu(t)

x(t)=cTq(t)+du(t)

CКАЧКООБРАЗНАЯ И ПЕРЕХОДНАЯ ФУНКЦИИ.

Передаточные свойства линейного звена характеризуются реакцией на

скачкообразное изменение входного сигнала:

us(t)=uо?(t)= 0, при t<0

u0, при t?0

здесь ?(t) является единичной скачкообразной функцией:

?(t)? 0, при t<0

1, при t?0

Значение скачкообразной функции основывается на том, что единичный

входной сигнал u(t) может быть разложен на последовательность сдвинутых по

времени скачкообразных функций с разными амплитудами.

u(t)

рис 1.

t

Благодаря применяемому для линейных систем методу суперпозиций

соответствующий выходной сигнал можно получить путем наложения друг на

друга реакций системы на отдельные скачкообразные функции. Реакция на

единичное воздействие, хs(t) линейного звена:

xs(t)?q us(t)=q U0?(t) (4)

Переходная функция h(t) линейного звена:

(5) h(t)?xs(t)/U0=q(t)

Переходная функция линейного звена представляет собой его реакцию на

единичное воздействие, отнесенную к амплитуде скачка вх. сигнала.

ИМПУЛЬСНАЯ И ВЕСОВАЯ ФУНКЦИИ.

Аналогично скачкообразной функции и реакции на единичное воздействие

импульсная функция и соответствующая реакция на импульсное воздействие

могут служить для характеристики передаточных свойств линейных звеньев.

Этот метод заключается в том, что входной сигнал u(t) может быть

представлен в виде последовательных импульсов функций рис 2

1/u u>0

u u

рис 2 рис 3

Разложение сигнала в последовательность импульсных эвристическая

интерпретация функций

Для хорошей аппроксимации, ширина u приведенных на рис. 2, 3 функций,

должна быть ничтожно мала. Реакция на импульсное воздействие х(t) линейного

звена:

6) x^(t)?q*u^(t)=q*A*?(t)

(* -обозначается свертка функции u(t) и q(t) с помощью интеграла свертки);

?(t)-импульсная функция; А - площадь импульса u^(t). Весовая функция q(t)

линейного звена:

q(t)? x^(t)/A=q*?(t)

Весовая функция q(t) линейного звена представляет его реакцию на

импульсное воздействие, отнесенную к интегралу от входного сигнала, взятому

по времени.

В соответствии с общим значением импульсного сигнала (рис 3) следует,

что весовая функция является свойством

передаточного звена, которое определяет его особенности при передаче

сигнала. Схема прохождения сигнала: изображение в виде графа прохождения

сигнала.

Граф представляет собой схему, состоящую из узлов и ветвей,

соединяющих узлы. Граф прохождения сигналов, представляет собой граф с

направленными ветвями.

x(t)=cu(t) узел x(p)=G(p)U(p)

x(t)=f{u(t)}

рис 4

При изображении схемы прохождения сигналов в виде графа, сигналы

условно изображаются узлами, а звенья ветвями с указанием направления

передачи. При этом принимается, что изображению временной функции (рис 4а)

соответствует выражение:

x(t)=Cu(t) или x(t)=F{u(t)}

С - постоянная,F оператор, являющийся функцией времени.

ДЕТЕТМЕНИРОВАННЫЕ СТОХАСТИЧЕСКИЕ СИГНАЛЫ И СИСТЕМЫ.

u u u

а) t б) t в) t

u

а-в детерминированные сигналы

г - стохастический сигнал

Рис. 5

г) t

Характеристика сигналов, представленных на рис 5, а –в, очевидно, что

может быть однозначно описана аналитической функцией для всех t, если

характер этой зависимости сохраняется за пределами показанного интервала.

Таким образом, значение в каждый момент времени t определено, т.е.

детерминировано.

Но это не имеет место для сигнала, показанного на рис 5г. Его

характеристика, замеренная в конечном интервале времени, может быть с

большими трудностями и разной степенью точности описана на этом интервале.

Отсюда, дальнейшее значение изменение сигнала, нельзя точно предугадать

заранее. Временная характеристика таких сигналов является случайной

функцией. Такие сигналы получаются из-за многих, причин, которые вследствие

больших трудностей не могут быть достаточно проанализированы.

Подобного вида сигналы называются стохастическими сигналами.

Сигналы называются детерминированными, если их временная

характеристика, может быть, однозначно определена.

Сигналы называются стохастическими, если их временные характеристики

являются случайными функциями, причем для этих характеристик могут быть

указаны общие статические параметры.

Если все сигналы в системе детерминированы, то также оказываются

детерминированными временные характеристики всей системы.

Стохастические сигналы могут возникать в системе из-за того, что-либо

входные сигналы являются стохастическими, либо определенные параметры

системы подвержены случайным колебаниям.

Системы называются детерминированными, если все сигналы (вход,

состояние, выход) детерминированы, и стохастическими, если, по крайней

мере, один сигнал является стохастическим. В детерминированных системах

возможна детерминированная обработка задачи управления, стохастическая

система требует стохастической обработки.

1.8. МОДЕЛИ СЛУЧАЙНЫХ СИГНАЛОВ.

Величина, которая в каждом определенном случае в зависимости от

результатов опыта может принимать то или иное числовое значение, называется

случайной величиной. Конкретное значение, которое может принять случайная

величина, называется возможным ее значением. Случайную величину можно

определить как, функцию заданную на пространстве элементарных событий.

Случайные величины обозначают большими буквами латинского алфавита

X,Y,Z,.., а возможные их значения соответствующими буквами x, y, z,...,.

Случайная величина зависит, от элементарного события. Этот факт

обозначается следующим образом Х=Х(?).

Случайная величина, множество значений которой конечно или счетною,

называется дискретной, случайной величиной.

ВЕКТОРНЫЕ (МНОГОМЕРНЫЕ) СЛУЧАИНЫЕ ВЕЛИЧИНЫ.

Кроме одномерных, случайных величин можно рассматривать многомерные,

случайные векторы, координаты которых являются одномерными, случайными

величинами. Такие случайные величины встречаются во многих технических

задачах.

Случайные сигналы G и Х на входе и выходе системы автоматического

регулирования (САР) с n -выходами и m -входами можно рассматривать n- и m-

мерные, случайные векторы (рис 1)

g1 x1

g2 x2

X G

gn xn

GT=[g1,g2,...,gn] XT=[x1,x2,...,xn]

Случайные векторные величины будем обозначать жирными буквами

латинского алфавита X,Y,Z, . Рассмотрим совокупность n случайных величин

x1( ), x ( ),.., x ( )заданных на пространстве элементарных событий. Эти

величины можно интегрировать как одну векторную, случайную величину:

(1) XT(?)=[x1(?),...,xn(?)]

Случайная векторная величина принимает каждый раз значения, зависящие

от элементарного события. Таким образом, многомерная, случайная величина

есть вектор-функция, заданная на пространстве элементарных событий, и

каждое ее возможное значение есть вектор.

ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ (МОМЕНТЫ) СЛУЧАЙНЫХ ВЕЛИЧИН.

Полными характеристиками случайных величин являются их функции

распределения или плотности распределения вероятностей. Однако многие

задачи теории вероятности можно решать, не используя функции распределения

вероятностей. Оказывается, что статические свойства случайных величин могут

быть описаны на основе числовых характеристик распределения этих случайных

величин. Одной из наиболее важных числовых характеристик случайной

величины является ее среднее значение, называемое также математическим

ожиданием.

Математическим ожиданием М [Х] случайной величины Х называется число,

определяемое интегралом вида:

?

(2) mX=M[X]=? xf(x)dx

-?

где f(х) - плотность распределения вероятностей случайной величины Х, х -

возможные ее значения.

Для дискретной, случайной величины Х, плотность распределения

вероятностей есть сумма дельта - функций получим:

n n

(3) M[X]=x S pk ?(x-xk)dx= S xk pk

k=1 k=1

здесь хk возможное значение случайной величины, pk- вероятность того, что

случайная величина примет значение хк.

Из равенства (3) следует, что математическое ожидание случайной

дискретной величины Х равно сумме произведений возможных значений,

принимаемых случайной величиной, на соответствующие им вероятности.

Отсюда вытекает вероятностный смысл математического ожидания, оно

определяет координату центра группирования значений, принимаемых случайной

величиной; следовательно, математическое ожидание является средним

значением случайной величины.

Для непрерывной, случайной величины каждому ее возможному значению х

соответствует элементарная вероятность f(х)dx . Если задана случайная

величина Y, которая является неслучайной функцией Y=?(x) случайного

дискретного элемента Х, то Y принимает возможные значения уk=?(хk) с

вероятностями pk; поэтому математическое ожидание случайной величины Y=?(х)

аналогично равенству (3).

n

(4) M[?(x)]= S ?(xk)pk

k=1

Если Х - непрерывная, случайная величина, то функция от этой величины

Y=?(х) принимает возможные значения?(x) с вероятностями f(х)dх. В этом

случае сумма (4) после предельного перехода равна соответствующему

интегралу:

?

(5) M[?(x)]= ? ?(x)f(x)dx

-?

Пологая, в формуле (5) ?(х)=хn получим выражение для моментов случайных

величин Х.

Начальным моментом (или просто моментом) случайной величины Х

называется математическое ожидание ее, n-ной степени. Этот момент

обозначается ?n т.е.

?

(6) ?n=M[Xn]= ? xn f(x)dx

-?

Очевидно, математическое ожидание не может дать полное представление

о случайной величине, т.к. характеризует только ее среднее значение:

* * * * ****

x1

0 m

* *** *** *

x2

0 m

На рисунке 2 крестиками показаны значения, которые приняли случайные

величины х1, х2. Эти случайные величины имеют одинаковые математические

ожидания M[x1]=M[x2]=m, но разброс значений, который имеет случайная

величина х2 около своего математического ожидания, больше чем разброс

значений случайной величины х1.

Для характеристики величины разброса значений случайной величины около

математического ожидания вводится еще одна характеристика случайной

величины, равная сумме произведений квадратов отклонений, возможных

значений случайной величины от математического ожидания на соответствующие

этим возможным значениям вероятности.

Такая числовая характеристика называется дисперсией случайной величины Х и

обозначается D[Х]. Для дисперсии случайной величины Х имеем:

n

(7) D[X]= S (xk-M[X])2 pk

k=1

Очевидно, что чем больше дисперсия, тем больше разброс возможных

значений случайной величины от математического ожидания. Из выражения (6)

следует, что дисперсия есть математическое ожидание квадрата разности

случайной величины и ее математического ожидания.

Для непрерывной, случайной величины Х формула (6) после предельного

перехода принимает вид:

?

(8) D[X]=M(X-M[X])2= ? (x-M[X])2 f(x)dx

-?

Разность между случайной величиной и ее математическим ожиданием

называется центрированной случайной величиной Х?.

(9) X?=X-M[X]

Центральным моментом n-го порядка случайной величины Х называется

математическое ожидание n-ой степени интегрированной случайной величины Х?,

т.е.

?

(10) ?n=M[(X?)n]=M[X-M[X]n]= ? (x-M[X]n) f(x)dx

-?

Из формул (8), (9) следует, что дисперсия является центральным моментом

второго порядка случайной величины. Дисперсия случайной величины имеет

разность квадрата этой величины, однако, удобнее пользоваться мерой

разброса случайной величины, имеющей ту же размерность, что и сама

случайная величина. За эту меру принимают положительное значение

квадратного корня из дисперсии и называют ее средним квадратичным

отклонением.

(11) ?x=? D[X] = ? ?x

МОМЕНТЫ МНОГОМЕРНЫХ СЛУЧАЙНЫХ ВЕЛИЧИН.

Как и для одномерных, случайных величин, для случайных векторов вводят

понятие начального и центрального моментов. Рассмотрим случайный n-мерный

вектор - столбец Х с координатами х1, х2,...,хn

Смешанным начальным моментом порядка k1+k2 +,...,+kn случайных,

величин х1, .. , хn называется математическое ожидание произведения

(12) ?k1, k2,..., kn=M[x1k1, x2k2,..., xnkn]

Смешанным центральным моментом порядка k1, k2,..., kn случайных,

величин х1 ,..,хn называется математическое ожидание произведения

(x1?)k1(x2?)k2..(xn?)kn соответствующих центрированных случайных величин

т.е.

(13) ?k1, k2,..., kn=M[(x1?)k1(x2?)k2...(xn?)kn]

Вычислим момент первого порядка для координат вектора X

(14) ?0,..,0,1,0,..,0=M[(x1)?...(xi-1)? xi (xi+1)?...(xn)?=M[xi]

Отсюда, следует, что начальные моменты первого порядка для системы n-

случайных величин, есть математическое ожидание этих случайных величин.

Математическим ожиданием случайного вектора Х называется вектор,

координатами которого являются математические ожидания соответствующих

координат случайного вектора Х, т.е.

(15) M[X]T=M[x1]...M[xn]

Рассмотрим момент второго порядка, пусть имеем две случайные величины хi,

уi. Вычислим смешанный центральный момент второго порядка. Согласно

равенству (13) имеем:

(16) ?1,1=M(xi?yj?)

Смешанный центральный момент второго порядка случайных величин называется

корреляционным моментом и обозначается Кij.

Кроме корреляционного момента двух случайных величин, для

характеристики связи случайных величин введем безразмерный коэффициент rij,

равный отношению корреляционного момента Kij случайных величин хi, уj к

положительному значению квадратного корня из произведения дисперсией этих

случайных величин. Этот коэффициент называется коэффициентом корреляции

случайных величин т. е.

Kij

(18) rij= ?D[xi]D[xj]

Рассмотрим случайный вектор Х с коэффициентами х1, х2,.., хn. Матрица

К, составленная из корреляционных моментов для всех координат этого

случайного вектора:

k11 k12 ......k1n

k21 k22 ......k2n

(19) K= ...................... =M[X?(X?)T]=[M[Xi?Xj?]]

kn1 kn2 ......knn

называется корреляционной матрицей случайного вектора Х. из свойств

корреляционного момента следует, что Кij=Кji, т.е. матрица К является

симметричной:

(20) КT=К

Пусть выполняется линейное преобразование случайного вектора Х, задаваемого

в некотором базисе матрицей В, т.е.

(21) Y=ВХ

При линейном преобразовании (21) случайного вектора Х корреляционная

матрица Y равна Кy=ВКxВT (22)

КОВАРЦИОННАЯ МАТРИЦА.

Если имеется не две, а большее число случайных величин, например,

х1,...,хn, то резко возрастает и число числовых параметров, характеризующих

эти величины. Кроме n-первых моментов, определяющих математическое ожидание

случайных величин необходимо определение еще вторых центральных моментов,

представляющих собой дисперсии каждой случайной величины и коварцией между

каждой парой случайных величин. Всю совокупность случайных величин Х1,...,

Хn, удобно представить в виде случайного вектора столбца:

X1 __ __

(23) X= ....... =(X1,...,Xn)T

Xn

Тогда совокупность математических ожиданий компонент этого вектора запишем

в виде вектора математических ожиданий:

x1 __ __

(24) X=M[X]= ...... =(x1,...,xn)T

xn

Совокупность вторых центральных моментов, представляющих собой дисперсии:

(25) ?2xi=M[(xi-M[x])2] , i=1,...,n

и коварции

(26) cov(xixj)=M[(xi-M[xi])(xj-M[xj]) ,i, j=1,...,n, i?j

Удобно записать в виде коварционной матрицы:

(27) Pxx=M[(X-M(X))(X-M(X)T)]

Диагональные члены этой матрицы представляют собой дисперсии. Коварционная

матрица является симметричной.

ЭЛЕМЕНТЫ ТЕОРИИ СЛУЧАЙНЫХ ФУНКЦИЙ.

При изучении ряда явлений природы приходится наблюдать процессы,

характеризуемые функциями, которые в зависимости от исхода опыта принимают

различный вид. Указать заранее на то, какой вид примет случайная функция

в данном опыте, невозможно, однако закономерности, присущие множеству

значений, принимаемые случайной функцией, как закономерности массового

явления можно изучить. Случайная функция как случайная величина, принимает

различные значения в зависимости от исхода опыта элементарного события,

кроме того, случайная функция зависит от некоторого неслучайного параметра

t, например времени.

Если параметр t- время, то случайную функцию называют случайным

процессом. Если зафиксировать элементарное событие ?=?0, то Х(t,?0) будет

неслучайной функцией аргумента t. Конкретный вид случайной функции при

фиксированном, т.е. возможном опыте, называется реализацией случайной

функции.

Если зафиксировать параметр случайной функции t, т.е. рассмотреть

сечение этой случайной функции при t=tk, то она будет зависеть только от

элементарного события и, следовательно, станет случайной величиной Х(tk,?).

Чтобы полностью задать случайную функцию Х(t), надо знать все n-мерные

функции распределения: Fn(x1,...,xn; t1,..,tn), которые зависят от n

переменных х1,...,хn и значений t1,...,tn, или плотности распределения

вероятностей fn.

Важными характеристиками случайных величин являются моменты. Если

известна двумерная функция распределения или плотность распределения

вероятностей случайной функции, то всегда можно вычислить моменты случайной

функции до второго порядка включительно, такими моментами являются

математически ожидания;

?

(1) M[X(t)]= ? xf1[x,t]dx=mx(t)

-?

дисперсия

?

(2) D[X(t)]= ? [x-mx(t)]2f1(x,t)dx=D1(t)

-?

и корреляционный момент:

? ?

(3) Kx(t1,t2)=M[X?(t1)X?(t2)]= ? ? (x1-mx(t1))(x2-mx(t2))

-? -?

f2(x1,x2;t1,t2)dx1dx2, где

(4) X?(t)=X(t)-M[X(t)], центрированная случайная функция.

Если параметру t придавать все возможные значения, то математическое

ожидание (1) и дисперсия (2) случайной функции будут функциями одной

переменной t, а корреляционный момент (3) функцией двух переменных t1 и t2.

Корреляционный момент Кx(t1,t2) называется корреляционной функцией

случайной функции Х(t).

Математическое ожидания представляет собой среднее значение случайной

функции Х(t)рис 2, а дисперсия характеризует отклонение значений,

принимаемых случайной функцией, от ее математического ожидания.

Корреляционная функция характеризует зависимость между случайными

величинами Х(t1) и Х(t2)-сечениями случайной функции при t=t1 и t=t2.

x(t)

m(x)

t

Рис 2

Теория, изучающая случайные функции на основе знания первых двух

моментов случайных функций, рис 2 называется корреляционной теорией.

Если известны математическое ожидание m(t) и корреляционная функция

К(t1,t2) случайной функции Х(t), то всегда можно построить n-мерный вектор

математического ожидания многомерной, случайной величины x(t1),...,x(tn)

для фиксированных значений t1, t2,...,tn.

(5) mT=[m1, m2,..., mn]

и корреляционную матрицу этой случайной многомерной величины

K(t1,t1) K(t1,t2) ..... K(t1,tn)

K(t2,t1) k(t2,t2) ..... K(t2,tn)

(6) K= ........................................

........................................

K(tn,t1) K(tn,t2) K(tn,tn)

НЕКОТОРЫЕ СВОЙСТВА КОРРЕЛЯЦИОННОЙ ФУНКЦИИ.

1. Корреляционная функция при одинаковых значениях аргументов равна

дисперсии случайной функции, т.е.

K(t,t)=D(t)

2. При перемене местами аргументов корреляционная функция меняется на

комплексно - сопряженную, т.е.

______

K(t1; t2)=K(t1, t2)

3. Для всякой корреляционной функции справедливо неравенство:

1) K(t1, t2) ?? D(t1)D(t2)

4. Корреляционная функция является положительно определенной функцией.

Вместо корреляционной функции может быть рассмотрена безразмерная

нормированная корреляционная функция R(t1, t2) определяемая равенством;

(t1, t2)

5) R(t1, t2)=

? D(t1)D(t2)

Из определения свойств корреляционной функции можно показать, что для

нормированной корреляционной функции справедливо состояние:

_____ ______

R(t, t)=1 , R(t2,t1)=R(t1,t2) , R(t1,t2)?1

В теории случайных чисел большую роль играет один из видов случайной

функции, математическое ожидание которой равно 0, а корреляционная функция

равна дельта функции. Такую случайную функцию называют белым шумом. Для

белого шума как это следует из определения, справедливы равенства:

(6) M[X(t)=0

(7) K(t1, t2)=G(t) ?(t1-t2)

Функция G(t) называется интенсивностью белого шума. Дельта-функция при

значении аргумента, отличном от 0, равна 0, поэтому для белого шума

случайные величины, соответствующие двум сколь угодно близким значениям,

являются некоррелированными.

Рассмотри систему из n случайных функций:

(8) X1(t),X2(t),...,Xn(t)

Каждая из функций этой системы характеризуется математическим ожиданием и

корреляционной функцией. Однако необходимо еще ввести характеристику связи

между отдельными случайными функциями системы (8).

Такой характеристикой является взаимная корреляционная функция двух

случайных функций Xi(t) и Xi(t), и определяется равенством:

(9) Kxixj(t1,t2)=M[Xi?(t)Xj?(t)]

Для того, чтобы отличать взаимную корреляционную функцию, от

корреляционной функции, последнюю называют также автокорреляционной.

Для взаимной корреляционной функции случайных функций Хi(t) и Yj(t)

справедливы свойства:

________

(10) Kxy(t1, t2)=Kxy(t1, t2)

(11) Kxy(t1, t2) ? ?Dx(t1)Dy(t2)

Две случайные функции Х(t) и Y(t) называются некоррелированными, если их

взаимная корреляционная функция тождественно равна нулю т.е.

(12) Kxy(t1, t2)=0

В ряде случаев удобно ввести безразмерную характеристику связи между

случайными функциями нормированную взаимную корреляционную функцию:

Kxy(t1,t1)

(13) Rxy(t1, t2)=

? Dx(t1)Dy(t1)

ЛИНЕЙНЫЕ ОПЕРАЦИИ НАД СЛУЧАЙНЫМИ ФУНКЦИЯМИ.

Выясним, как образуются математические ожидания и корреляционные

функции случайных функций при осуществлении над ними линейных операций:

1. Сложение случайных функций.

Возьмем две случайные функции X(t), Y(t). Пусть известны моменты этих

функций до второго порядка включительно:

M[X(t)],M[Y(t)], Kx(t1,t2),Ky(t1,t2) Kxy(t1,t2)

Найдем математическое ожидание случайной функции:

(15) Z(t)=X(t)+Y(t)

В силу линейности операции определения математического ожидания имеем:

(16) M[Z(t)]=M[X(t)]+M[Y(t)]

т.е. математическое ожидание суммы случайных функций равно сумме

математических ожиданий этих случайных функций.

Вычитая из равенства (15) равенство (16), получим центрированную

случайную функцию:

(17) Z?(t)=X?(t)+Y?(t)

Вычислим корреляционную функцию суммы случайных функций Х(t)+Y(t). По

определению корреляционной функции имеем: _____

____________

(18) Kz(t1, t2)=M[Z?(t1)Z?(t2)]=M[(X?(t1)+Y?(t2)*(X?(t1)+Y?(t2))]=

=Kx(t1, t2)+Kxy(t1, t2)+Kyx(t1, t2)+Ky(t1, t2)

Таким образом, корреляционная функция суммы двух случайных функций равна

сумме всех корреляционных и взаимно корреляционных функций этих случайных

функций.

2. Дифференцирование случайных функций.

Случайная функция Y(t) называется производной в среднем квадратичном от

случайной функции Х(t) по аргументу t, если существует предел:

X?(t+h)-X?(t) 2

(19) lim M -Y?(t) =0

h>0 h

Случайную функцию, для которой существует производная в среднем

квадратичном, будем называть дифференцируемой. Случайная функция X(t)

называется непрерывной в среднем квадратическом, если существует предел:

(20) lim X(t)=X(t?)

h>0

Корреляционная функция производной dX?(t)/dt=Y?(t) равна:

d2K(t1,t2)

(21) Ky(t1,t2)=

dt1dt2

Взаимная корреляционная функция процесса Х?(t) и его производной равна:

(22) Kxy(t1,t2)=dK(t1,t2)/dt2

Из этих равенств по индукции можно показать справедливость соотношения:

Страницы: 1, 2


© 2007
Использовании материалов
запрещено.