РУБРИКИ

Реферат: Математические основы теории систем

 РЕКОМЕНДУЕМ

Главная

Правоохранительные органы

Предпринимательство

Психология

Радиоэлектроника

Режущий инструмент

Коммуникации и связь

Косметология

Криминалистика

Криминология

Криптология

Информатика

Искусство и культура

Масс-медиа и реклама

Математика

Медицина

Религия и мифология

ПОДПИСКА НА ОБНОВЛЕНИЕ

Рассылка рефератов

ПОИСК

Реферат: Математические основы теории систем

/td>
U y
Реферат: Математические основы теории систем Реферат: Математические основы теории систем
Реферат: Математические основы теории систем
рис.1 На рисунке 1 показано, что такая операция над входным вектором реализуется с помощью блока квантования, включенного между входом U и системой Y. Если α(t) является входом блока квантования, то его выход α0 будет ступенчатой функцией α0(t)=α(kT), kT<t≤(k+1)T Будем полагать, что вход измеряется через каждые T секунд, где T- период повторения или период квантования. Вход системы задается последовательностью векторов {Uk}, причем Uk=U(kT+). Период повторения T выбирается достаточно малым, так что интерполирование последовательностей {xk}, {yk}, где xk= x(kT+), yk= y(kT+), определяет функции x(t), y(t) с приемлемой точностью для всех t. По этой причине имеет смысл искать зависимости между последовательностями {xk},{yk } и входной последовательностью. Наиболее удобно представить такие последовательности в виде рекуррентных соотношений выражающих xk+1 и yk+1 через xk и Uk . Используя выведенные ранее уравнения и вводя обозначение: (3) F=exp AT, T (4) G=( ⌡ [exp(AƮ)]dƮ)B, получим 0 получим (5) xk+1= Fxk+Cuk (6) yk+1= Cxk+1+Duk+1 Выражения (5),(6) являются уравнениями состояния дискретной системы, вход, выход и состояние которой определяется последовательностями векторов {uk}, {xk}, {yk} соответственно. Поскольку A,B,C,D постоянные матрицы, эта система линейна и стационарна. Из (5) можно найти xk как функцию начального состояния x0 и последовательности {Ui}r-1 k-1 (7) xk=Fkx0+ ∑ FiGUk-i-1, k=1,2,3,... i=0 РЕШЕТЧАТЫЕ ФУНКЦИИ. Функции, определенные только в некоторых точках t1,t2 и т.д называются решетчатыми. Пусть t= nT- равностоящие точки, где n- любое целое число, а T- постоянная, называемая периодом дискретности. Тогда определенные в этих точка функции f[nT] f[nT] Реферат: Математические основы теории систем Любой f(t)- непрерывной можно Реферат: Математические основы теории систем Реферат: Математические основы теории систем поставить в соответствие некоторое множество решетчатых функций, если представить переменную t=nT+ℰT (0≤ℰ≤1). При каждом фиксированном значении р переменной функцию f(nT+ℰT) -4T -3T -2T -T 0 T 2T 3T 4T nT можно рассматривать как функцию, определенную в точках ℰT, (ℰ+1)T, (ℰ+2)T,....Такие функции называются смешанными решетчатыми функциями. f(nT+ℰT)=f[nT,ℰT] (8) f (n-1)T,T = f[nT,0] Конечные разности решетчатых функций. Выражение Δf[n]=f[n+1]-f[n] (9) называется разностью первого порядка решетчатой функции f[n] Δ2f(n)=Δ f[n+1]- Δf[n]- вторая разность Δkf(n)=Δk-1f[n+1]- Δk-1f[n]- к-тая разность Выражение значения решетчатой функции через ее конечные разности до порядка l включительно: l (10) f[n+l]= ∑ (kl) Δkf[n]; где (kt)=l!/k!(l-k) k=0 РАЗНОСТНЫЕ УРАВНЕНИЯ . Всякое соотношение, связывающую решетчатую функцию x[n] и ее разности до некоторого порядка K: (11) Ф[n, x[n], Δ x[n],.., Δkx[n] =0, называется разностным уравнением. Соотношение (11) можно записать: (12) Ф[n,x[n],x[n+1],x[n+2],...,x[n+k]=0, уравнение порядка K. Рассмотрим пример. (13) Δ3x[n]+ Δ2x[n]+2Δx[n]+2x[n]=f[n] (13) можно переписать x[n+3]-2x[n+2]+3x[n+1]=f[n], если m=n+1, тогда: (14) x[m+2]-2x[m+1]+3x[m]=f[m-1] Таким образом, уравнение (13) является уравнением второго порядка. Решетчатая функция x[n], которая обращает уравнение в тождество, называется решением разностного уравнения. Решение разностного уравнения (РУ) определяется наиболее просто, если (РУ) порядка К можно разрешить относительно функции x[n+k], т.е представить в виде: (15) x[n+K]= F[n,x[n],x[n+1],...,x[n+k-1]] Зададим К начальных условий при некотором значении аргумента n=n0: x[n0]=x0, x[n0+1]=x1,..., x[n0 +K-1]=xk-1 Соотношение (15) определяет по заданным начальным условиям значение решения при n=n0+K. Используя значение x[n0+K], вычислим последовательно x[n0+K+1], x[n0+K+2] и все остальные x[n] при n≥n0+K. Решение РУ (15) x[n]= ℰ[n,x0, x1,...,xk-1]. Рассматриваемая начальные условия мы получим общее решение уравнения (15) как функцию К произвольных постоянных C0,C1,..,Ck-1 (16) x[n]=ℰ[n,C0,C1,...,Ck-1] Линейное РУ порядка К: (17) a0[n]Δrx[n]+a1[n]Δr-1x[n]+....+ar[n]x[n]=f[n] где r≥K, f[n], a0[n], a1[n], ... ,ar[n] - заданные решетчатые функции. Данное уравнение называется неоднородным РУ, если правая часть f[n]≠0, в противном случае это уравнение однородно. Если решетчатые функции ℰ1[n], ... , ℰl[n] являются решением линейного однородного РУ: x[n+K]+b1[n]x[n+K-1]+ ... +bk[n]x[n]=0, то функция l ℰ[n]= ∑ Ciξi[n], где (i=1,2, ... ,l) - произвольные постоянные, i=1 также является его решением. Совокупность К линейно независимых решений разностного однородного уравнения порядка К называется фундаментальной системой решений. Если при n≥n0 существует фундаментальная система решений ℰ1[n],...,ℰk[n] однородного разностного уравнения, то общее решение этого уравнения выражается: k ℰ[n]= ∑ Ciℰi[n] i=1 Общее решение линейного неоднородного разностного уравнения: x[n+K]+b1[n]x[n+K-1]+ ... +bk[n]x[n]=f[n] равно сумме частного решения ψ[n] и общего решения соответствующего однородного ур- я, т.е. k x[n]=ψ[n]+ ∑ Ciℰi[n] i=1 где Ci - произвольные постоянные, Ei[n] - решение однородного уравнения, удовлетворяющие: W(E1[n0],...,Ek[n0])≠0 (определитель). Z - преобразования и его свойства. Реферат: Математические основы теории систем
Реферат: Математические основы теории систем
S
И.М.
Реферат: Математические основы теории систем Реферат: Математические основы теории систем U y t
Реферат: Математические основы теории систем Реферат: Математические основы теории систем Реферат: Математические основы теории систем
Реферат: Математические основы теории систем
рис. 3. Для изучения свойств и соотношений, связывающих входные и выходные последовательности системы, изображенной на рис.3, воспользуемся Z- преобразованием. (На рис.3 показана модель системы вход U с импульсным модулятором). Определение Z-преобразование. функции U(0;∞) представляет собой функцию U комплексной переменной Z определяемую выражением: ∞ (18) U(z)=Z(U)= ∑ U(nT)Z-n , где n=0 Т-период повторения импульсного модулятора. Замечание: Если U имеет разрыв в любой дискретный момент kT, смысл соотношения (18) становится не вполне понятным. Поэтому будем всегда считать U(nT)=U(nT+), n=0,1, ... ,т.е. все функции от времени, которые будут преобразовываться в дискретные, будут равны 0 для t<0, и если они непрерывны в некоторые дискретные моменты, то должны существовать значения U(nT-) и U(nT+). Пример: функция времени z-преобразование 1(t) 1/(1-z-1) [ВЮЮ4] e-αt 1/(1-z-1e-αt) Согласно (18) U(z) определяется степенным рядом от z-1. Этот ряд сходится для всех z за пределами окружности |z|=Ru, где Ru=lim SVp √ |U(nT)| n→∞ Будем полагать, что каждая рассматриваемая функция имеет конечный радиус сходимости. Если U является входом импульсного модулятора, то его выход равен ∞ U= ∑ U(kT)δ(t-kT) k=0 Такая последовательность импульсов имеет преобразование Лапласа ∞ U(S)= ∑ U(kT)e-srT k=0 Сравнивая (18) с данным соотношением, замечаем, что U(z)|z=esT =U(S) Th. Рассмотрим систему, изображенную на рис. 3. Пусть H(z) будет Z- преобразованием импульсной реакции h. Пусть у будет реакцией при нулевом состоянии на входе U, прикладываемый в момент t=0. Тогда получим: (19) Y(Z)=H(Z)U(Z) ,для |Z|>max(Ru,Rk) Выражение (19) аналогично выражению Y(S)=H(S)V(S), которое устанавливает зависимость реакции при нулевом состоянии, импульсной реакции U входа непрерывной системы. По этой причине будем называть H(Z) дискретной передаточной функцией или передаточной функцией, Z-функцией. ∞ (20) H(Z)U(Z)= ∑ ylz-e=Y(Z), |Z|>max(Rh, Ru) l=0 Формула для нахождения последовательности {y(kT)}, т.е. дискретного выхода. Свойства Z-преобразования. 1. Теорема линейности. Z(αf)=αZ(f ) ∀ комплексных чисел α, ∀|Z|>Rf Z(f+g)=Z(f)+Z(g) ∀|Z|>max (Rf,Rg) 2. Теорема обращения f(nT)=1/2∏j ⌡Г F(Z)Z-1 dZ, n=0,1,..., где Г - любая замкнутая спрямляемая кривая, охватывающая начало координат и лежащая вне окружности |Z|=R>Rf. 3. Теорема о начальном значении. f(0+)= lim F(Z) Z→∞ 4. Теорема сдвига. Если F(Z) есть Z- преобразование последовательности {f0,f1 ,f2,...}, то Z-1F(Z) есть Z-преобразование последовательности {0,f0,f1,f2,...}. 1.6. СТРУКТУРНЫЕ СВОЙСТВА ОБЪЕКТОВ УПРАВЛЕНИЯ. Введение: Реакция любой линейной системы содержит две составляющие: реакцию при нулевом входе и реакцию при нулевом состоянии, причем последняя характеризуется передаточной функцией. Рассмотрим линейную стационарную систему У с несколькими входами и выходами описываемую уравнениями: (1) x=Ax+Bu (2) y=Cx+Du где A,B,C,D- (n*n), (n*r), (p*n) и (p*r)- постоянные матрицы; x- n-мерный вектор, характеризующий состояние данной системы; u- входной r-мерный вектор, у- входной p-мерный вектор. Будем говорить, что система У управляема, если при известных матрицах A и B и состоянии x0 системы при t0 можно найти некоторый вход u [t0,t0+T], который будет переводить систему из состояния x0 в нулевое состояние 0 в момент t0+T. Опр. Система Ф, определенная уравнением (1) называется управляемой в том и только том случае, если для всех х0∈ℰN при начальном состоянии x0 системы в момент t=0 и некотором конечном T(T>0) найдется вход U[0,T] такой, что: (3) x(T;x0;0;U[0;T])=0 Опр. Состояние х1 системы У, описываемой уравнением (1), будем называть управляемым в том и лишь в том случае, если для некоторого конечного Т существует управление U[0,T] такое, что: x(T;x1;0;U[0;T])=0 НАБЛЮДАЕМОСТЬ. Понятие наблюдаемости тесно связано с понятием управляемости. Управляемость означает, что, зная начальное состояние и матрицы, характеризующие рассматриваемую систему, можно найти вход, который переводит это состояние в нулевое конечное время. Наблюдаемость означает, что знания матриц характеризующих систему, и реакции при нулевом входе Y[0,t] на конечном интервале достаточно для однозначного определения начального состояния данной системы. Определение: система, описываемая (1) и (2) называется наблюдаемой в том случае, когда, для некоторого Т>0 и всех возможных начальных состояний х(0), значения матриц А и С и реакции при нулевом входе Y[0,t] достаточно, чтобы определить начальное состояние x(0). Тh: Система, Y описываемая (1), (2) наблюдаема в том и лишь в том, случае, если на np столбцов матрицы Р=[С* ,А* С* ,..,А*(n-1) С* ] натянуто пространство состояний ℇ . ( Матрицы А*, С*,. получаются транспонированием матриц А, С,. и заменой их элементов комплексно сопряженными. ) ХАРАКТЕРИСТИКИ УПРАВЛЯЕМОСТИ. Тh: Система Y , описываемая уравнением (1), управляема тогда и только тогда, когда на вектор столбцы В,АВ,..,B(n-1) матрицы Q≜[В,АВ,...,А(n-1) В] натянуто пространство состояний системы Y. Рассмотрим интерпритацию этой теоремы в терминах канонической экордановой формы матрицы системы. Такая форма позволяет определить управление, требуемое для перевода любого состояния в нулевое. Для простоты будем рассматривать систему с одним входом, описываемую уравнением: (6) х=Ах+Вu где А постоянная матрица порядка n, В -n-мерный вектор, u-скалярный вход. Если минимальный многочлен матрицы А имеет степень k⋜ n-1, то система, характеризуемая уравнением (6), неуправляема. Произведем замену переменных, положив х=Тy, причем матрица Т такова, что Т (-1)АТ=J, где J-каноническая форма Экордана матрицы А. Если обозначить е=Т (-1)В, то уравнение (6) преобразуется к виду: (7) y=Jy+eU Th. Пусть А имеет различные собственные значения, так что J=diag(ℷ1 ,...,ℷN). Тогда система, описываемая (6), управляема в том и только в том случае, когда все компоненты вектора e=Т-1В отличны от нуля. 1.7. СИГНАЛЫ В ЗАДАЧАХ УПРАВЛЕНИЯ И НАБЛЮДЕНИЯ ДИНАМИЧЕСКИХ ОБЬЕКТОВ. Временная функция (форма передачи), передаваемая материальным параметром, называемым носителем информации или пространственное размещение (форма заполнения ), называется сигналом, если она по меньшей мере с помощью одного из ее параметров передает информацию. пример:
Реферат: Математические основы теории систем
t t Носителем информации здесь является электрическое напряжение; информационным параметром амплитуда импульса. В качестве сигнала можно рассматривать временную функцию U(t) (математическую функцию). Сигналы называются аналоговыми или дискретными, если они передают или изображают аналоговую или дискретную информацию. В аналоговых сигналах информационные параметры в пределах определенных границ могут принимать любое значение, а в дискретных сигналах они принимают только дискретные значения. Дискретные сигналы, информационные параметры, которых могут принимать только два дискретных значения, называются двоичными. Цифровыми сигналами являются закодированные дискретные сигналы, в которых дискретные значения информационного параметра соответствуют словам условного алфавита. Все дискретные сигналы не являющиеся цифровыми называются многозначными. Для классификации сигналов имеет значение разделения их на непрерывные и импульсные. Сигналы называются непрерывными, если их информационные параметры изменяются в любой момент времени, и импульсными, если они изменяются в дискретные моменты времени. Схема прохождения сигналов кибернетической системы представляет собой граничное изображение (статической и динамической) характеристик звеньев и связей с общей системой. Схема прохождения сигналов представляет собой графическое изображение математической модели системы. Математическая модель является совокупностью всех уравнений, которые описывают соотношение между всеми рассматриваемыми входными и выходными сигналами. Для изображения схем прохождения сигналов наиболее употребительны два способа, которые имеют определенные преимущества: способ изображения в виде структурной схемы и изображение в виде графа прохождения сигнала. При изображении схемы прохождения сигналов в виде структурной схемы звенья показываются в виде блоков, а стрелками указываются направления прохождения сигналов. Структурная схема представляет собой схематическое (качественное) изображение передаточных звеньев системы и ее связей через входные и выходные сигналы. Качественное описание характеристики звена с выходными сигналами U1,...,Um должна пониматься характеристика передачи в установившемся режиме, которая описывается статическим передаточным уравнением: (1) xg=x(∞)=lim x(t)=f(U1,...,U v) t→∞ в случае если существует х (∞). Под динамическими характеристиками понимается зависимость выхода системы от ее входа в переходном процессе. Динамическая характеристика системы или звена может, быть описана различными способами. Для аналоговых звеньев, входные и выходные характеристики которых изменяются непрерывно, характеристика передачи может быть, описана следующим дифференциальным уравнением в скалярной форме (после деления всех членов на коэффициент х”) (2) xn +An-1 xn-1+...+A1 x+A0 x=Bm Um+...+B0 U где U(t)-входной сигнал, x(t) выходной сигнал. x=q1, x=q2, xn-1=qn получим уравнения системы для случая одномерного пространства: (3) q(t)=Aq(t)+Bu(t) x(t)=cTq(t)+du(t) CКАЧКООБРАЗНАЯ И ПЕРЕХОДНАЯ ФУНКЦИИ. Передаточные свойства линейного звена характеризуются реакцией на скачкообразное изменение входного сигнала: Реферат: Математические основы теории систем us(t)=uоδ(t)= 0, при t<0 u0, при t⋝0 здесь δ(t) является единичной скачкообразной функцией: Реферат: Математические основы теории систем δ(t)≜ 0, при t<0 1, при t⋝0 Значение скачкообразной функции основывается на том, что единичный входной сигнал u(t) может быть разложен на последовательность сдвинутых по времени скачкообразных функций с разными амплитудами. Реферат: Математические основы теории систем Реферат: Математические основы теории систем u(t)
Реферат: Математические основы теории систем
рис 1.
Реферат: Математические основы теории систем
t Благодаря применяемому для линейных систем методу суперпозиций соответствующий выходной сигнал можно получить путем наложения друг на друга реакций системы на отдельные скачкообразные функции. Реакция на единичное воздействие, хs (t) линейного звена: xs(t)≜q us(t)=q U0δ(t) (4) Переходная функция h(t) линейного звена: (5) h(t)≜xs(t)/U0=q(t) Переходная функция линейного звена представляет собой его реакцию на единичное воздействие, отнесенную к амплитуде скачка вх. сигнала. ИМПУЛЬСНАЯ И ВЕСОВАЯ ФУНКЦИИ. Аналогично скачкообразной функции и реакции на единичное воздействие импульсная функция и соответствующая реакция на импульсное воздействие могут служить для характеристики передаточных свойств линейных звеньев. Этот метод заключается в том, что входной сигнал u(t) может быть представлен в виде последовательных импульсов функций рис 2
Реферат: Математические основы теории систем Реферат: Математические основы теории систем
Реферат: Математические основы теории систем
Реферат: Математические основы теории систем 1/u u→0
Реферат: Математические основы теории систем
Реферат: Математические основы теории систем Реферат: Математические основы теории систем
u u рис 2 рис 3 Разложение сигнала в последовательность импульсных эвристическая интерпретация функций Для хорошей аппроксимации, ширина u приведенных на рис. 2, 3 функций, должна быть ничтожно мала. Реакция на импульсное воздействие х(t) линейного звена: (6) x↑(t)≜q*u↑(t)=q*A*δ(t) (* -обозначается свертка функции u(t) и q(t) с помощью интеграла свертки); δ(t)-импульсная функция; А - площадь импульса u↑(t). Весовая функция q(t) линейного звена: q(t)≜ x↑(t)/A=q*δ(t) Весовая функция q(t) линейного звена представляет его реакцию на импульсное воздействие, отнесенную к интегралу от входного сигнала, взятому по времени. В соответствии с общим значением импульсного сигнала (рис 3) следует, что весовая функция является свойством передаточного звена, которое определяет его особенности при передаче сигнала. Схема прохождения сигнала: изображение в виде графа прохождения сигнала. Граф представляет собой схему, состоящую из узлов и ветвей, соединяющих узлы. Граф прохождения сигналов, представляет собой граф с направленными ветвями.
Реферат: Математические основы теории систем Реферат: Математические основы теории систем
x(t)=cu(t) узел x(p)=G(p)U(p) x(t)=f{u(t)} рис 4 При изображении схемы прохождения сигналов в виде графа, сигналы условно изображаются узлами, а звенья ветвями с указанием направления передачи. При этом принимается, что изображению временной функции (рис 4а) соответствует выражение: x(t)=Cu(t) или x(t)=F{u(t)} С - постоянная,F оператор, являющийся функцией времени. Реферат: Математические основы теории систем Реферат: Математические основы теории систем Реферат: Математические основы теории систем Реферат: Математические основы теории систем Реферат: Математические основы теории систем ДЕТЕТМЕНИРОВАННЫЕ СТОХАСТИЧЕСКИЕ СИГНАЛЫ И СИСТЕМЫ. u u u
Реферат: Математические основы теории систем Реферат: Математические основы теории систем Реферат: Математические основы теории систем
а) t б) t в) t Реферат: Математические основы теории систем u а-в детерминированные сигналы Реферат: Математические основы теории систем г - стохастический сигнал Рис. 5 Реферат: Математические основы теории систем г) t Характеристика сигналов, представленных на рис 5, а –в, очевидно, что может быть однозначно описана аналитической функцией для всех t, если характер этой зависимости сохраняется за пределами показанного интервала. Таким образом, значение в каждый момент времени t определено, т.е. детерминировано. Но это не имеет место для сигнала, показанного на рис 5г. Его характеристика, замеренная в конечном интервале времени, может быть с большими трудностями и разной степенью точности описана на этом интервале. Отсюда, дальнейшее значение изменение сигнала, нельзя точно предугадать заранее. Временная характеристика таких сигналов является случайной функцией. Такие сигналы получаются из-за многих, причин, которые вследствие больших трудностей не могут быть достаточно проанализированы. Подобного вида сигналы называются стохастическими сигналами. Сигналы называются детерминированными, если их временная характеристика, может быть, однозначно определена. Сигналы называются стохастическими, если их временные характеристики являются случайными функциями, причем для этих характеристик могут быть указаны общие статические параметры. Если все сигналы в системе детерминированы, то также оказываются детерминированными временные характеристики всей системы. Стохастические сигналы могут возникать в системе из-за того, что-либо входные сигналы являются стохастическими, либо определенные параметры системы подвержены случайным колебаниям. Системы называются детерминированными, если все сигналы (вход, состояние, выход) детерминированы, и стохастическими, если, по крайней мере, один сигнал является стохастическим. В детерминированных системах возможна детерминированная обработка задачи управления, стохастическая система требует стохастической обработки. 1.8. МОДЕЛИ СЛУЧАЙНЫХ СИГНАЛОВ. Величина, которая в каждом определенном случае в зависимости от результатов опыта может принимать то или иное числовое значение, называется случайной величиной. Конкретное значение, которое может принять случайная величина, называется возможным ее значением. Случайную величину можно определить как, функцию заданную на пространстве элементарных событий. Случайные величины обозначают большими буквами латинского алфавита X,Y,Z,.., а возможные их значения соответствующими буквами x, y, z,...,. Случайная величина зависит, от элементарного события. Этот факт обозначается следующим образом Х=Х(ω). Случайная величина, множество значений которой конечно или счетною, называется дискретной, случайной величиной. ВЕКТОРНЫЕ (МНОГОМЕРНЫЕ) СЛУЧАИНЫЕ ВЕЛИЧИНЫ. Кроме одномерных, случайных величин можно рассматривать многомерные, случайные векторы, координаты которых являются одномерными, случайными величинами. Такие случайные величины встречаются во многих технических задачах. Случайные сигналы G и Х на входе и выходе системы автоматического регулирования (САР) с n -выходами и m -входами можно рассматривать n- и m- мерные, случайные векторы (рис 1)
САР
САР
g1 x1 Реферат: Математические основы теории систем Реферат: Математические основы теории систем Реферат: Математические основы теории систем Реферат: Математические основы теории систем g2 x2 Реферат: Математические основы теории систем Реферат: Математические основы теории систем X G gn xnРеферат: Математические основы теории систем Реферат: Математические основы теории систем GT=[g1,g2,...,gn] XT=[x1,x2,...,xn] Случайные векторные величины будем обозначать жирными буквами латинского алфавита X,Y,Z, . Рассмотрим совокупность n случайных величин x1( ), x ( ),.., x ( )заданных на пространстве элементарных событий. Эти величины можно интегрировать как одну векторную, случайную величину: (1) XT(ω)=[x1(ω),...,xn(ω)] Случайная векторная величина принимает каждый раз значения, зависящие от элементарного события. Таким образом, многомерная, случайная величина есть вектор-функция, заданная на пространстве элементарных событий, и каждое ее возможное значение есть вектор. ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ (МОМЕНТЫ) СЛУЧАЙНЫХ ВЕЛИЧИН. Полными характеристиками случайных величин являются их функции распределения или плотности распределения вероятностей. Однако многие задачи теории вероятности можно решать, не используя функции распределения вероятностей. Оказывается, что статические свойства случайных величин могут быть описаны на основе числовых характеристик распределения этих случайных величин. Одной из наиболее важных числовых характеристик случайной величины является ее среднее значение, называемое также математическим ожиданием. Математическим ожиданием М [Х] случайной величины Х называется число, определяемое интегралом вида: ∞ (2) mX=M[X]=⌡ xf(x)dx -∞ где f(х) - плотность распределения вероятностей случайной величины Х, х - возможные ее значения. Для дискретной, случайной величины Х, плотность распределения вероятностей есть сумма дельта - функций получим: n n (3) M[X]=x ∑ pk δ(x-xk)dx= ∑ xk pk k=1 k=1 здесь хk возможное значение случайной величины, pk- вероятность того, что случайная величина примет значение хк. Из равенства (3) следует, что математическое ожидание случайной дискретной величины Х равно сумме произведений возможных значений, принимаемых случайной величиной, на соответствующие им вероятности. Отсюда вытекает вероятностный смысл математического ожидания, оно определяет координату центра группирования значений, принимаемых случайной величиной; следовательно, математическое ожидание является средним значением случайной величины. Для непрерывной, случайной величины каждому ее возможному значению х соответствует элементарная вероятность f(х)dx . Если задана случайная величина Y, которая является неслучайной функцией Y=Ψ(x) случайного дискретного элемента Х, то Y принимает возможные значения уk=Ψ(хk ) с вероятностями pk; поэтому математическое ожидание случайной величины Y=Ψ(х) аналогично равенству (3). n (4) M[Ψ(x)]= ∑ Ψ(xk)pk k=1 Если Х - непрерывная, случайная величина, то функция от этой величины Y=Ψ(х) принимает возможные значенияΨ(x) с вероятностями f(х)dх. В этом случае сумма (4) после предельного перехода равна соответствующему интегралу: ∞ (5) M[Ψ(x)]= ⌡ Ψ(x)f(x)dx -∞ Пологая, в формуле (5) Ψ(х)=хn получим выражение для моментов случайных величин Х. Начальным моментом (или просто моментом) случайной величины Х называется математическое ожидание ее, n-ной степени. Этот момент обозначается α n т.е. ∞ (6) αn=M[Xn]= ⌡ xn f(x)dx -∞ Очевидно, математическое ожидание не может дать полное представление о случайной величине, т.к. характеризует только ее среднее значение: Реферат: Математические основы теории систем * * * * **** x1 0 m Реферат: Математические основы теории систем * *** *** * x2 0 m На рисунке 2 крестиками показаны значения, которые приняли случайные величины х 1, х2. Эти случайные величины имеют одинаковые математические ожидания M[x1]=M[x2]=m, но разброс значений, который имеет случайная величина х2 около своего математического ожидания, больше чем разброс значений случайной величины х1. Для характеристики величины разброса значений случайной величины около математического ожидания вводится еще одна характеристика случайной величины, равная сумме произведений квадратов отклонений, возможных значений случайной величины от математического ожидания на соответствующие этим возможным значениям вероятности. Такая числовая характеристика называется дисперсией случайной величины Х и обозначается D[Х]. Для дисперсии случайной величины Х имеем: n (7) D[X]= ∑ (xk-M[X])2 pk k=1 Очевидно, что чем больше дисперсия, тем больше разброс возможных значений случайной величины от математического ожидания. Из выражения (6) следует, что дисперсия есть математическое ожидание квадрата разности случайной величины и ее математического ожидания. Для непрерывной, случайной величины Х формула (6) после предельного перехода принимает вид: ∞ (8) D[X]=M(X-M[X])2= ⌡ (x-M[X])2 f(x)dx -∞ Разность между случайной величиной и ее математическим ожиданием называется центрированной случайной величиной Х○. (9) X○=X-M[X] Центральным моментом n-го порядка случайной величины Х называется математическое ожидание n-ой степени интегрированной случайной величины Х○, т.е. ∞ (10) μn=M[(X○)n]=M[X-M[X]n]= ⌡ (x-M[X]n) f(x)dx -∞ Из формул (8), (9) следует, что дисперсия является центральным моментом второго порядка случайной величины. Дисперсия случайной величины имеет разность квадрата этой величины, однако, удобнее пользоваться мерой разброса случайной величины, имеющей ту же размерность, что и сама случайная величина. За эту меру принимают положительное значение квадратного корня из дисперсии и называют ее средним квадратичным отклонением. (11) δx=√ D[X] = √ μx МОМЕНТЫ МНОГОМЕРНЫХ СЛУЧАЙНЫХ ВЕЛИЧИН. Как и для одномерных, случайных величин, для случайных векторов вводят понятие начального и центрального моментов. Рассмотрим случайный n-мерный вектор - столбец Х с координатами х1, х2,...,хn Смешанным начальным моментом порядка k1+k2 +,...,+kn случайных, величин х1, .. , хn называется математическое ожидание произведения (12) αk1, k2,..., kn=M[x1k1, x2k2,..., xnkn] Смешанным центральным моментом порядка k1, k2,..., kn случайных, величин х1 ,..,хn называется математическое ожидание произведения (x1○)k1(x2 ○)k2..(xn○)kn соответствующих центрированных случайных величин т.е. (13) μk1, k2,..., kn=M[(x1○)k1(x2○)k2...(xn○)kn] Вычислим момент первого порядка для координат вектора X (14) α0,..,0,1,0,..,0=M[(x1)○ ...(xi-1)○ xi (xi+1) ○...(xn)○=M[xi] Отсюда, следует, что начальные моменты первого порядка для системы n- случайных величин, есть математическое ожидание этих случайных величин. Математическим ожиданием случайного вектора Х называется вектор, координатами которого являются математические ожидания соответствующих координат случайного вектора Х, т.е. (15) M[X]T=M[x1]...M[xn] Рассмотрим момент второго порядка, пусть имеем две случайные величины хi , уi. Вычислим смешанный центральный момент второго порядка. Согласно равенству (13) имеем: (16) μ1,1=M(xi○yj○) Смешанный центральный момент второго порядка случайных величин называется корреляционным моментом и обозначается Кij. Кроме корреляционного момента двух случайных величин, для характеристики связи случайных величин введем безразмерный коэффициент rij, равный отношению корреляционного момента Kij случайных величин хi , уj к положительному значению квадратного корня из произведения дисперсией этих случайных величин. Этот коэффициент называется коэффициентом корреляции случайных величин т. е. Kij (18) rij= √D[xi]D[xj] Рассмотрим случайный вектор Х с коэффициентами х1, х2,.., хn. Матрица К, составленная из корреляционных моментов для всех координат этого случайного вектора: Реферат: Математические основы теории систем Реферат: Математические основы теории систем k11 k12 ......k1n k21 k22 ......k2n (19) K= ...................... =M[X○(X○) T]=[M[Xi○Xj○]] kn1 kn2 ......knn называется корреляционной матрицей случайного вектора Х. из свойств корреляционного момента следует, что Кij=Кji, т.е. матрица К является симметричной: (20) КT=К Пусть выполняется линейное преобразование случайного вектора Х, задаваемого в некотором базисе матрицей В, т.е. (21) Y=ВХ При линейном преобразовании (21) случайного вектора Х корреляционная матрица Y равна Кy=ВКxВT (22) КОВАРЦИОННАЯ МАТРИЦА. Если имеется не две, а большее число случайных величин, например, х1 ,...,хn, то резко возрастает и число числовых параметров, характеризующих эти величины. Кроме n-первых моментов, определяющих математическое ожидание случайных величин необходимо определение еще вторых центральных моментов, представляющих собой дисперсии каждой случайной величины и коварцией между каждой парой случайных величин. Всю совокупность случайных величин Х1,..., Хn, удобно представить в виде случайного вектора столбца: Реферат: Математические основы теории систем Реферат: Математические основы теории систем X1 __ __ (23) X= ....... =(X1,...,Xn)T Xn Тогда совокупность математических ожиданий компонент этого вектора запишем в виде вектора математических ожиданий: Реферат: Математические основы теории систем Реферат: Математические основы теории систем x1 __ __ (24) X=M[X]= ...... =(x1,...,xn)T xn Совокупность вторых центральных моментов, представляющих собой дисперсии: (25) δ2xi=M[(xi-M[x])2] , i=1,...,n и коварции (26) cov(xixj)=M[(xi-M[xi])(xj-M[xj]) ,i, j=1,...,n, i≠j Удобно записать в виде коварционной матрицы: (27) Pxx=M[(X-M(X))(X-M(X)T)] Диагональные члены этой матрицы представляют собой дисперсии. Коварционная матрица является симметричной. ЭЛЕМЕНТЫ ТЕОРИИ СЛУЧАЙНЫХ ФУНКЦИЙ. При изучении ряда явлений природы приходится наблюдать процессы, характеризуемые функциями, которые в зависимости от исхода опыта принимают различный вид. Указать заранее на то, какой вид примет случайная функция в данном опыте, невозможно, однако закономерности, присущие множеству значений, принимаемые случайной функцией, как закономерности массового явления можно изучить. Случайная функция как случайная величина, принимает различные значения в зависимости от исхода опыта элементарного события, кроме того, случайная функция зависит от некоторого неслучайного параметра t, например времени. Если параметр t- время, то случайную функцию называют случайным процессом. Если зафиксировать элементарное событие ω=ω0, то Х(t,ω 0) будет неслучайной функцией аргумента t. Конкретный вид случайной функции при фиксированном, т.е. возможном опыте, называется реализацией случайной функции. Если зафиксировать параметр случайной функции t, т.е. рассмотреть сечение этой случайной функции при t=tk, то она будет зависеть только от элементарного события и, следовательно, станет случайной величиной Х(tk ,ω). Чтобы полностью задать случайную функцию Х(t), надо знать все n-мерные функции распределения: Fn(x1,...,xn; t1 ,..,tn), которые зависят от n переменных х1,...,хn и значений t1,...,tn, или плотности распределения вероятностей fn. Важными характеристиками случайных величин являются моменты. Если известна двумерная функция распределения или плотность распределения вероятностей случайной функции, то всегда можно вычислить моменты случайной функции до второго порядка включительно, такими моментами являются математически ожидания; ∞ (1) M[X(t)]= ⌡ xf1[x,t]dx=mx(t) -∞ дисперсия ∞ (2) D[X(t)]= ⌡ [x-mx(t)]2f1(x,t)dx=D1(t) -∞ и корреляционный момент: ∞ ∞ (3) Kx(t1,t2)=M[X○(t1 )X○(t2)]= ⌡ ⌡ (x1-m x(t1))(x2-mx(t2)) -∞ -∞ f2(x1,x2;t1,t2)dx1dx2, где (4) X○(t)=X(t)-M[X(t)], центрированная случайная функция. Если параметру t придавать все возможные значения, то математическое ожидание (1) и дисперсия (2) случайной функции будут функциями одной переменной t, а корреляционный момент (3) функцией двух переменных t1 и t2 . Корреляционный момент Кx(t1,t2) называется корреляционной функцией случайной функции Х(t). Математическое ожидания представляет собой среднее значение случайной функции Х(t)рис 2, а дисперсия характеризует отклонение значений, принимаемых случайной функцией, от ее математического ожидания. Корреляционная функция характеризует зависимость между случайными величинами Х(t1) и Х(t2)-сечениями случайной функции при t=t1 и t=t2. Реферат: Математические основы теории систем Реферат: Математические основы теории систем x(t) Реферат: Математические основы теории систем m(x) Реферат: Математические основы теории систем t Рис 2 Теория, изучающая случайные функции на основе знания первых двух моментов случайных функций, рис 2 называется корреляционной теорией. Если известны математическое ожидание m(t) и корреляционная функция К(t1 ,t2) случайной функции Х(t), то всегда можно построить n-мерный вектор математического ожидания многомерной, случайной величины x(t1 ),...,x(tn) для фиксированных значений t1, t2 ,...,tn. (5) mT=[m1, m2,..., mn] и корреляционную матрицу этой случайной многомерной величины Реферат: Математические основы теории систем Реферат: Математические основы теории систем K(t1,t1) K(t1,t2) ..... K(t1,tn) K(t2,t1) k(t2,t2) ..... K(t2,tn) (6) K= ........................................ ........................................ K(tn,t1) K(tn,t2) K(tn,tn) НЕКОТОРЫЕ СВОЙСТВА КОРРЕЛЯЦИОННОЙ ФУНКЦИИ. 1. Корреляционная функция при одинаковых значениях аргументов равна дисперсии случайной функции, т.е. K(t,t)=D(t) 2. При перемене местами аргументов корреляционная функция меняется на комплексно - сопряженную, т.е. ______ K(t1; t2)=K(t1, t2) 3. Для всякой корреляционной функции справедливо неравенство: 1) K(t1, t2) ≤√ D(t1)D(t2) 4. Корреляционная функция является положительно определенной функцией. Вместо корреляционной функции может быть рассмотрена безразмерная нормированная корреляционная функция R(t1, t2) определяемая равенством; (t1, t2) (5) Реферат: Математические основы теории систем R(t1, t2)= √ D(t1)D(t2) Из определения свойств корреляционной функции можно показать, что для нормированной корреляционной функции справедливо состояние: _____ ______ R(t, t)=1 , R(t2,t1)=R(t1,t2) , R(t1,t2)≤1 В теории случайных чисел большую роль играет один из видов случайной функции, математическое ожидание которой равно 0, а корреляционная функция равна дельта функции. Такую случайную функцию называют белым шумом. Для белого шума как это следует из определения, справедливы равенства: (6) M[X(t)=0 (7) K(t1, t2)=G(t) δ(t1-t2) Функция G(t) называется интенсивностью белого шума. Дельта-функция при значении аргумента, отличном от 0, равна 0, поэтому для белого шума случайные величины, соответствующие двум сколь угодно близким значениям, являются некоррелированными. Рассмотри систему из n случайных функций: (8) X1(t),X2(t),...,Xn(t) Каждая из функций этой системы характеризуется математическим ожиданием и корреляционной функцией. Однако необходимо еще ввести характеристику связи между отдельными случайными функциями системы (8). Такой характеристикой является взаимная корреляционная функция двух случайных функций Xi(t) и Xi(t), и определяется равенством: (9) Kxixj(t1,t2)=M[Xi○(t)Xj○(t)] Для того, чтобы отличать взаимную корреляционную функцию, от корреляционной функции, последнюю называют также автокорреляционной. Для взаимной корреляционной функции случайных функций Хi(t) и Yj (t) справедливы свойства: ________ (10) Kxy(t1, t2)=Kxy(t1, t2) (11) Kxy(t1, t2) ≤ √Dx(t1)Dy(t2) Две случайные функции Х(t) и Y(t) называются некоррелированными, если их взаимная корреляционная функция тождественно равна нулю т.е. (12) Kxy(t1, t2)=0 В ряде случаев удобно ввести безразмерную характеристику связи между случайными функциями нормированную взаимную корреляционную функцию: Kxy(t1,t1) Реферат: Математические основы теории систем (13) Rxy(t1, t2)= √ Dx(t1)Dy(t1) ЛИНЕЙНЫЕ ОПЕРАЦИИ НАД СЛУЧАЙНЫМИ ФУНКЦИЯМИ. Выясним, как образуются математические ожидания и корреляционные функции случайных функций при осуществлении над ними линейных операций: 1. Сложение случайных функций. Возьмем две случайные функции X(t), Y(t). Пусть известны моменты этих функций до второго порядка включительно: M[X(t)],M[Y(t)], Kx(t1,t2),Ky(t1,t2) Kxy(t1,t2) Найдем математическое ожидание случайной функции: (15) Z(t)=X(t)+Y(t) В силу линейности операции определения математического ожидания имеем: (16) M[Z(t)]=M[X(t)]+M[Y(t)] т.е. математическое ожидание суммы случайных функций равно сумме математических ожиданий этих случайных функций. Вычитая из равенства (15) равенство (16), получим центрированную случайную функцию: (17) Z○(t)=X○(t)+Y○(t) Вычислим корреляционную функцию суммы случайных функций Х(t)+Y(t). По определению корреляционной функции имеем: _____ ____________ (18) Kz(t1, t2)=M[Z○(t1 )Z○(t2)]=M[(X○(t1)+Y ○(t2)*(X○(t1)+Y○ (t2))]= =Kx(t1, t2)+Kxy(t1, t2)+Kyx(t1, t2)+Ky(t1, t2) Таким образом, корреляционная функция суммы двух случайных функций равна сумме всех корреляционных и взаимно корреляционных функций этих случайных функций. 2. Дифференцирование случайных функций. Случайная функция Y(t) называется производной в среднем квадратичном от случайной функции Х(t) по аргументу t, если существует предел: X○(t+h)-X○(t) 2 Реферат: Математические основы теории систем (19) lim M -Y○(t) =0 h→0 h Случайную функцию, для которой существует производная в среднем квадратичном, будем называть дифференцируемой. Случайная функция X(t) называется непрерывной в среднем квадратическом, если существует предел: (20) lim X(t)=X(t○) h→0 Корреляционная функция производной dX○(t)/dt=Y○(t) равна: d2K(t1,t2) Реферат: Математические основы теории систем (21) Ky(t1,t2)= dt1dt2 Взаимная корреляционная функция процесса Х○(t) и его производной равна: (22) Kxy(t1,t2)=dK(t1,t2)/dt2 Из этих равенств по индукции можно показать справедливость соотношения: dn+mKx(t1,t2) Реферат: Математические основы теории систем (23) Kx(n)x(m)(t1,t2)= dt1n dt2n где x(n)(t) и x(m)(t)- соответственно n-я и m-я производные в среднем квадратичном случайной функции Х(t). 3. Интегрирование случайной функции. Пусть заданы случайная функция Х(Ʈ) и неслучайная функция q(t, Ʈ), где параметр Ʈ изменяется в интервале (а, в). Разобьем интервал (а, в) точками Ʈ○=а,Ʈ○,...,Ʈn=в, на n частей и составим сумму: n (24) ∑ X○(Ʈi) q(t,Ʈi)(Ʈi-Ʈi-1) i=1 значение Ʈi выбрано произвольно в промежуткеƮi-1 ≤Ʈ≤Ʈi. Рассмотрим предел в среднем квадратическом суммы: при n→∞ и max[Ʈi-Ʈi-1]→0 n (25) lim ∑ X○(Ʈi) q(t, Ʈi)(Ʈi-Ʈi-1) n→∞ i=1 Если этот предел существует, то он называется интегралом от случайной функции X○(t) в среднем квадратическом с весом q(t,Ʈ) и обозначается: b n (26) Y= ] X○(Ʈ) q(t,Ʈ) dƮ = lim ∑ X○(Ʈi) q(t,Ʈi) ΔƮi a n→∞ i=1 Рассмотрим случайную функцию Y(t). Согласно определения интеграла от случайной функции получим: b (27) Y(t)= ⌡ X(Ʈ) q(t,Ʈ)dƮ a Математическое ожидание случайной функции Y(t): b (28) M[Y(t)]= ⌡ mx(Ʈ) q(t,Ʈ) dƮ, где mx=M[X(t)] a Из неравенства (28) следует, что если существует интеграл, то математическое ожидание интеграла от случайной функции Х(t) равно интегралу от математического ожидания этой случайной функции. СТАЦИОНАРНЫЕ СЛУЧАЙНЫЕ ФУНКЦИИ. Существуют случайные функции, не изменяющие свой характеристики с течением времени. Такие случайные функции называются стационарными. Случайная функция, для которой все n-мерные функции распределения вероятностей не изменяются с изменением начала отсчета времени, называются стационарными в узком смысле. 1.10 ОПТИМИЗАЦИЯ В ТЕОРИИ СИСТЕМ. Задачу управления в дальнейшем будем рассматривать как математическую. Однако в отличии от многих других математических задач она имеет ту особенность, что допускает не одно, а множество различных решений. Поэтому задачу управления можно было бы ставить как задачу нахождения хотя бы одного из возможных способов достижения поставленной цели. Если имеется множество решений какой- либо задачи, то следует вести речь о выборе такого решения, которое с какой либо точки зрения являлось наилучшим. В тех случаях, когда цель управления может быть достигнута, несколькими различными способами, на способ управления можно наложить добавочные требования, степень выполнения которых может служить основанием для выбора способа управления. Во многих случаях реализация процесса управления требует затрат каких-либо ресурсов: времени, материалов, топлива, электроэнергии. Следовательно, при выборе способа управления следует говорить не только о том, какие ресурсы придется затратить на ее достижение. Математическое выражение, дающее количественную оценку степени выполнения наложенных на способ управления требований, называют критерием качества управления. Наиболее предпочтительным или оптимальным способом управления будет такой, при котором критерий качества управления достигает минимального (максимального) значения. Задачу нахождения оптимального управления или управления вообще следует читать несущественной если на характер движения, не наложено ни каких ограничений. В общем случае имеется два вида ограничений на выбор способа управления. Ограничением первого вида являются сами законы природы, всоответсвии с которыми происходит движение управляемой системы. При математической формулировки задачи управления эти ограничения представляются обычно алгебраическими дифференциальными или разностными уравнениями связи. Второй вид ограничений вызван ограниченностью ресурсов, используемых при управлении, или иных величин, которые в силу физических особенностей той или иной системы не могут или не должны превосходить некоторых пределов. Математические ограничения этого вида выражаются обычно в виде системы алгебраических уравнений или неравенств, связывающих переменные, описывающие состояние системы. ПОСТАНОВКА ЗАДАЧИ ОПТИМАЛЬНОГО УПРАВЛЕНИЯ Задачу оптимального управления можно считать сформулированной математически, если: сформулирована цель управления, определены ограничения первого вида, представляющие собой системы дифференциальных или разностных уравнений сковывающих возможные способы движения системы, определены ограничения второго вида, представляющие собой систему алгебраических уравнений или неравенств, выражающих ограниченность ресурсов или иных величин используемых при управлении. Способ управления, который удовлетворяет всем поставленным ограничениям и обращает в минимум (максимум), критерий качества управления, называют оптимальным управлением. КЛАССИФИКАЦИЯ ЗАДАЧ ОПТИМАЛЬНОГО УПРАВЛЕНИЯ. 1. Одношаговые задачи принятия решения. В одношаговых задачах определяется непосредственно значение переменной состояния системы х, которое обеспечивает наилучшее достижение или управление. Одношаговая задача принятия решения считается заданной, если заданы пространство состояний природы Q с распределением вероятностей ℰ(U) для всех U∈Q, пространство решений Х и критерий качества принятого решения, который будем называть целевой функцией. Целевую функцию; выражающую в явном виде цели управления, можно рассматривать как выходную величину ОУ и обозначать q. Целевую функцию, являющуюся скалярной величиной, зависящей от состояния природы U и от состояния объекта управления х можно записать в виде: (1) q=q(х,U) Одинаковая задача принятия решений: (2) G=(X,Q,q) Решение задачи (2) состоит в нахождении такого х*∈X, которое обратит в минимум функцию q, т.е. удовлетворяет условию: (3) х*={х∈Х q(х,U)=min} Существует ряд методов решения одношаговой задачи. Задачу называют детерминированной, если нет неопределенности в отношении состояния природы. Пространство состояния природы Q состоит всего из одного элемента U0, вероятность которого равна 1. В этом случае целевая функция будет зависеть только от состояния ОУ. (4) q=q(x)=q(x(1),...., x(n)) Одинаковую детерминированную задачу называют классической задачей оптимизации, если ограничения вида: ≤в ____ (5) fi(x(1),..., x(n)) =в , i=1,m ≥в примем, среди этих ограничений нет неравенств, и нет условий не отрицательности или дискретности переменных, функции fi(x(1),...,x (n)) и q(х) непрерывны и имеют частные производные по крайней мере второго порядка. Другим методом решения одношаговой задачи является метод математического программирования. Математическое программирование представляет собой не аналитическую, а аморитмическую форму решения задачи, т.е. указывает вычислительную процедуру, которая приводит к решению задачи. Простейшим примером математического программирования является задача линейного программирования. Она соответствует случаю, когда левые части ограничений (5) и целевая функция (4) представляют собой линейные функции от х(1),..., х(n). В задачах линейного программирования требуется найти неотрицательные значения переменных х(1),..., х(n), которые обращают в минимум целую функцию. (6) q(x(1),...,x(n))= ∑ Cjx(j) j и удовлетворяет системе ограничений: (7) ∑ aijx(j)≤вi, i=1,m j Любую задачу математического программирования, отличающуюся от сформулированной, называют задачей нелинейного программирования. В этих задачах или целевая функция или левые части ограничений, или то и другое являются нелинейными функциями от x(1),..., х(n), или когда целевая функция и ограничении имеют вид (6), (7), но предполагается, например, цело численность переменных. Эта задача получил название целочисленного программирования. Одношаговую задачу принятия решений называют стохастической, если пространство состояний природы Q состоит более чем из одного элемента, так что известным является не действительное состояние природы U, а распределение вероятностей ξ(U) на пространстве Q. (8) q (x)= ∑ ξ(U) q(x,U) U∈Q Поскольку q (х) является детерминированной функцией от х, то задача нахождения переменных х(1),...,х(n), удовлетворяющих ограничениям (5) и обращающих в минимум целевую функцию (8), может быть решена методами линейного и нелинейного программирования. В настоящее время большое внимание уделяется задачам, в которых решение принимается не одним лицом, а несколькими, причем интересы этих лиц противоположны. Подобные задачи получили название конфликтных ситуаций, а методы их решения рассматриваются в теории игр. При мат-ком описании конфликтной ситуации пространство решений следует рассматривать как прямое приведение двух множеств Х*Y, где Х={х1,..., хn} - пространство решений первого игрока; Y - пространство решений второго игрока. Целевая функция: (9) q=q(x,y) зависит только от элементов пространства Х*Y. ДИНАМИЧЕСКИЕ ЗАДАЧИ ОПТИМИЗАЦИИ УПРАВЛЕНИЯ. Задачи, в которых ОУ находится в состоянии непрерывного движения и изменения под воздействием различных внешних и внутренних факторов называется динамическими задачами управления. (10) q=qV[x(t),u(t)] (10)-целевая функция, качество управления в любой момент времени может быть охарактеризовано как (11) q(t)=u(t)/x(t) Целевая функция вида (10) используется редко, так как она дает оценку лишь мгновенных значений управляемого процесса, тогда как в большинстве задач требуется оценить процессы в ОУ на протяжении всего времени управления от 0 до Т. Оценку процесса ОУ можно произвести путем интегрирования целевой функции за все время управления, т.е. за критерий качества принять функционал T (12) J(u)= ⌡ qU[x(t),u(t)]dt 0 В динамических задачах управления наряду с ограничениями вида (5), определяющих пространство допустимых управлений V, приходится иметь дело с интегральными ограничениями вида: T (13) ⌡ H [x(t),u(t)]dt ≤ k = const 0 Оптимальным называют управление u*(t), выбираемого из пространства допустимых уравнений V, такое, которое для объекта описываемого дифференциальным уравнением x=qv(u, x), x(0)=C, минимизирует критерий качества (12) при заданных ограничениях на используемые ресурсы (13). ОБЩАЯ ПОСТАНОВКА ЗАДАЧИ ОПТИМИЗАЦИИ. В общей задаче оптимизации требуется найти вектор x=(x(1),.., x (n)) из допустимой области Х, который обращает в min целевую функцию q(х), т.е. такой вектор х*∈X, для которого выполняется условие: (14) q(x*) ≤ q(x) для всех х∈Х Если такой вектор х* существует, то он определяет слабый глобальный минимум q*(х) в допустимой области Х. Этот минимум называют слабым, т.к. он удовлетворяет нестрогому (слабому) неравенству, глобальным или абсолютным, потому что неравенство справедливо для любого х∈X. Минимум при х=х* называют сильным, если имеет место q(x*)<q(x) для x≠x*. Если поменять знаки неравенств, получим слабый и сильный максимум. Однако max q(x) дает min q(x), поэтому в дальнейшем рассматриваем задачу минимизации. Сильный глобальный минимум всегда единственен. Слабый глобальный минимум допускает не единственность оптимальной точки, т.к. х, удовлетворяющий условию q(х)=q(х*), так же является оптимальной точкой. Хотя цель задачи оптимизации - получение глобального минимума целевой функции, при ее решении важное значение имеет понятие локального или относительного минимума. Минимум в точке х=х* называется локальным (относительным), если найдется такая окрестность Qξ(х*) точки х*, что для всех х∈Qξ (x*) имеет место q(х*)≤q(х). Если функция q(х) дифференцируема, то задача отыскания локальных минимумов сводится к нахождению стационарных точек, в которых обращаются в нуль частные производные функции q(x) ___ (15) dq(x)/dx(i)=0, i=1,n КЛАССИЧЕСКАЯ ЗАДАЧА ОПТИМИЗАЦИИ. Эта задача состоит в нахождении минимума целевой функции q(х), где х=(х(1) ,..., х(т)) - точка в пространстве R(т) при наличии ограничений типа равенств: ___ (16) fi(x)=0, i=1,m, m<n Если ограничения (16) имеют место ,то минимум функции q(х) называют условным минимумом. Если ограничения (16) отсутствуют, то говорят о безусловном минимуме, нахождение которого сводится к определению и исследованию стационарных точек функции q(х). Классический способ решения данной задачи состоит в том, что уравнение (16) используется для исключений из рассмотрения m - переменных. При этом целевая функция приводится к виду: (17) q(x(1),...,x(т))=q1(y(1),..., y(т)), где через у(1),..., у(т) обозначены не исключенные переменные. Задача состоит теперь в нахождении значений у(1),...,у (т) которые обращают в минимум функцию q1 и на которые не наложено ни каких ограничений, т.е. сводится к задаче на безусловный экстремум. ВЫПУКЛЫЕ И ВОГНУТЫЕ ФУНКЦИИ. Большинство известных методов решения задачи оптимизации сводится к исследованию характера функции q(х) в окрестности рассматриваемого значения x, т.е. к выяснению того, не является ли точка х точкой относительного минимума (максимума). При этом задача усложняется, если целевая функция может иметь в допустимой области значений Х не один, а несколько минимумов или максимумов. Поэтому значительный интерес представляют также задачи, в которых целевая функция имеет всего один максимум или минимум. Для выявления классов таких задач фундаментальную роль играют понятия выпуклости и вогнутости функций. Пусть f(х) - некоторая функция, заданная на выпуклом множестве Х, ах1 , x2 - две произвольные точки из х, х=ℷх1 +(1-ℷ)х2; 0≤1≤1; - произвольная точка отрезка, соединяющая х1 и х2. Рассмотрим также отрезок z=ℷf(х1)+(1-ℷ)f(х2), соединяющий значения f(х 1) и f(х2) функции f(х). Функцию f(х) называют выпуклой, если она целиком лежит ниже отрезка, соединяющего две ее произвольные точки при любых х1 и х2 и при любом 0≤ℷ≤1 значении функции в точке х будут не больше значений z отрезка, соединяющего f(х1) и f(х2) Функцию называют вогнутой, если она целиком лежит выше отрезка соединяющего две ее произвольные точки. ЗАДАЧИ НЕЛИНЕЙНОГО ПРОГРАММИРОВАНИЯ. Постановка задачи. В этой задаче требуется найти значение многомерной переменной х=(х(1) ,..., х(n)), минимизирующее целевую функцию q(х) при условии, когда на переменную х наложены ограничения: ___ (20) fi(x)≤0, i=1,n а переменные х(j), не отрицательны. МЕТОД ШТАФНЫХ ФУНКЦИЙ. Задача минимизации целевой функции q(х) с ограничениями (20) может, быть сведена к задаче на безусловный экстремум видоизменением целевой функции путем добавления к ней функции штафа. Общая идея метода штафных функций состоит в построении последовательности новых целевых функций. (21) Qk(x)=q(x)+rkΨ(x), r=1,2,.. где Ψ(х)-функция штафа, принимающая по возможности малые (желательно нулевые) значения внутри допустимой области, а rk, к=1,2,....... - плоскость возрастающих положительных чисел параметров штрафа. При ограничении вида (20), функция штрафа: m (22) Ψ(х)= ∑ (fi+(x))2 i=1 где fi+(х) - срезка функции fi(x), равная нулю, если f i(х)≤0 и равная fi(х), если fi(х)≥0. Алгоритм решения задачи состоит в следующем: а) выбираем произвольное начальное приближение х0 и монотонно возрастающую последовательность чисел r→∞ б) при R=1,2,.., начиная с хk-1 решаем задачу безусловной минимизации по х функции Qk(х), в результате чего находим очередное приближение xk к решению исходной задачи. ОГРАНИЧЕНИЯ ТИПА РАВЕНСТВ И НЕОТРИЦАТЕЛЬНОСТЬ ПЕРЕМЕННЫХ. Простейшей задачей НЛП является задача минимизации q(x) с ограничениями типа равенств ___ (24) fj(x)=0, j=1,m ___ и с требованием не отрицательности переменных х(i), i=1,n. В точки х оптимального решения выполняются соотношения: (25) L(x,ℷ)=q(x) Пусть х - точка, соответствующая оптимальному решению. Она может быть или внутренней, или граничной точкой допустимой области х≥0, т.е. каждая из ее компонент, будет удовлетворять либо условию х(i)>0, либо условию х(i)=0. Если х(i)>0, то отклонения от точки х возможны как в сторону увеличения, так в сторону уменьшения х(i). Но поскольку х - оптимальная точка, то должно быть dq(x)/dx(i)-0 Если х(i) лежит на границе допустимой области, т.е. х(i) =0, то отклонения от оптимальной точки возможны в сторону увеличения dq(x)/dx (i)>0. Необходимые условия того, что точка х - решение задачи: Реферат: Математические основы теории систем dL(x,ℷ) =0, если x(i)>0; ___ dx(i) >0, если x(i)=0, i=1,n ____ (27) dL(x; ℷ)/dℷj=0, j=1,m КВАДРАТИЧНОЕ ПРОГРАММИРОВАНИЕ (КП). Задачей КП называют задачи НЛП, в которой минимизируется сумма линейной и квадратичной форм при ограничениях типа линейных неравенств и не отрицательности переменных. В матричной форме эта задача имеет вид: (28) q(x)=Cx+xTdx=min, Ax≤в, x≥0 ИНТЕРАТИВНЫЕ МЕТОДЫ ПОИСКА ОПТИМУМА. В основе этих методов лежит понятие градиента целевой функции q(х), grad q(x), называют вектор, величина которого определяет скорость изменения функции q(х), а направление совпадает с направлением наибольшего возрастания этой функции. Вектор grad q(x), указывающий направление наибольшего убывания функции q(х), называют антиградиентом функции q(х). ГРАДИЕНТНЫЙ МЕТОД. Этот метод представляет собой последовательность шагов, каждый из которых содержит две операции: 1) определение направления антиградиента функции q(х) 2) перемещение в выбранном направлении на заданное расстояние. МЕТОД НАИСКОРЕИШЕГО СПУСКА (ПОДЪЕМА). В отличии от градиентного метода, в методе наискорейшего спуска градиент находят только в начальной точке, и движение в найденном направлении продолжается одинаковыми шагами до тех пор, пока уменьшается значение функции q(х). Если на каком-то шаге q(х) возросло, то движение в данном направлении прекращается, последний шаг снимается полностью или на половину и вычисляется новый градиент функции q(х), а значит и новое направление движения. АЛГОРИТМ НЬЮТОНА. В тех случаях, когда поверхность отклика достаточно хорошо описывается уравнением второго порядка, резкое уменьшение числа шагов можно получить, если воспользоваться алгоритмом Ньютона, при этом представлении q(х) в виде; q(x)=q(x)*+½ ∑ ∑ akj Δx(k) Δx(j) ГДЕ X=X -X -отклонение k j от точки оптимума. Будет достаточным при значительном удалении от точки оптимума и в качестве матрицы Гп можно взять непосредственно матрицу А. Однако элементы, аij матрицы А, вычисленные в точке оптимума, заранее не известны. Тем не менее, при достаточно хорошей поверхности отклика вторые производные функции q(х) вычисленные в произвольной точке х=хп будет близка к элементам aij матрицы А. 1.11. ЗАДАЧИ И МЕТОДЫ ЛИНЕЙНОГО ПРГРАММИРОВАНИЯ. Дана система m линейно независимых уравнений с неизвестными х ,...,х называемая системой ограничений задачи линейного программирования: Реферат: Математические основы теории систем a11x1+...+a1nxn=в1 (1) ............................ am1x1+...+a1mxn=вn ___ где не уменьшая общности можно считать вi≥0, i=1,m. Характерной особенностью данной задачи является, то, что число уравнений меньше числа неизвестных, т.е. m<n. Требуется найти неотрицательные значения переменных, которые удовлетворяют уравнениям (1) и обращают в минимум целевую функцию: (2) q=c1x+...+anx Реферат: Математические основы теории систем Более компактно задачи ЛП могут быть записаны в матричной форме: q(x)=cx=min (3) Ax=B (B≥0), x≥0 где А - матрица размером m*n, В m - мерный вектор, х и c n - мерные вектора. Матрицу А называют матрицей условий задачи векторов В - вектор ограничений задачи (3). ГЕОМЕТРИЧЕСКА ИНТЕРПРИТАЦИЯ ОСНОВНОЙ ЗАДАЧИ ПРОГРОММИРОВАНИЯ. В пространстве Еn множество R1 можно рассматривать как пересечение полупространств (при n=2 - полуплоскостей). ___ (Ax)i≥bi, ( i=1,m) x≥0 (j=1,n) СИМПЛЕКС МЕТОД. 1) Идея метода. Этот метод - это последовательный перебор угловых точек, при которых значение целевой функции убывает от одной угловой точки к другой. Рассмотрим задачи (каноническую) ЛП: (4) min<c, x> R0 ={x; Ax=b, x≥0} x∈R0 Задача (4)-невырожденная, т.е. невырожденна каждая угловая точка ∈R0 . Итерационный шаг состоит в переходе от одной угловой точки х круговой точке х', при котором значение целевой функции убывает; <C, x'> < <C, x> x -угловая точка. Базис В образует, первые m столбцов матрицы А. Будем записывать матрицу А=[В,D], где В=[a1, a2,..., am ]. D=[an+1, an+2,..., an] xT=(xвТ, xдТ), CТ=(CвТ, CдТ) хВ - базис компоненты, хд - в небазисные компоненты. 2) Выбор столбца для ввода в базис. Известна угловая точка х: хв>0, хд=0, det(В)≠0, Вхв=в Реферат: Математические основы теории систем Рассмотрим векторы: хк=хк(ℷ)= xв-ℷbak-1 ______ ℷ k=(m+1,n) 0 где ℷ является к - й компонентой вектора х. Если хв>0, то при малых ℷ>0; хk≥0, т.к. Ахk=в, то хk∈R○ при малых ℷ>0. Кроме того: <C1 xk>=<C1 x>-ℷ[<Cв, B-1ak>-Ck]=<C, x>-ℷ∆k ∆к - определитель для любого к=1,n, причем при к=1,m; ∆к=<Cв, B-1ak>-Ck=<Cв, Cк>Cк=Cк-Cк=0 Окончательно; <C1 xк>=<C1x>-ℷ∆x (k=1,n) 3)Выбор столбца для ввода из базиса. В зависимости от значков величины ∆к и (В-1ak); возникает 3 случая. ___ a)Если для любого к=1,n будет ∆к=0, то точка х - оптимальная. _____ б) Если найдется номер к≥m+1 такой, что ∆к>0 и В-1 ak≤0, то множество R0 неограниченно и функция <С1 х> неограниченна снизу на R0. в) Пусть найдутся такие к≥m+1 и i≤m, что ∆к>0 и (В -1akа )>0. 4)Конечность метода. хk - новая угловая точка, причем <C1k>=<C1 x>-ℷ0 ∆k < <C1 x>. Из этого следует, что итерационный шаг симплексного метода состоит в таком переходе от базиса а1, а2,..., аs, аs+1, a m к базису a1, a2,..., as-1, as+1 ,..., am, ak при котором целевая функция убывает, а значит, симплексный метод приводит к угловой точке х*, в которой достигает минимума за конечное число итераций. Стр: 19 [ВЮЮ1] Стр: 19 [ВЮЮ2] Стр: 29 [ВЮЮ3] Стр: 1 [ВЮЮ4]

Страницы: 1, 2


© 2010
Частичное или полное использование материалов
запрещено.