Читать в оригинале

<< ПредыдущаяОглавлениеСледующая >>


7.2. Оптимальный линейный дискретный фильтр

В данном параграфе мы рассмотрим дискретную форму линейного несмещенного алгоритма, обеспечивающего минимальную среднеквадратическую ошибку, предполагая, что модель сообщения задана линейным векторным разностным уравнением

,    (7.1)

где входной шум (или шум объекта)  представляет собой белый шум с нулевым средним и ковариационной матрицей

.    (7.2)

Модель наблюдения или измерения задается линейным алгебраическим соотношением

.                    (7.3)

где шум измерения v представляет собой белый шум с нулевым средним и

.    (7.4)

Ради простоты первоначальных выкладок предположим, что  и  некоррелированны, т. е.

 для всех ,     (7.5)

Начальное значение  представляет случайную величину со средним значением  и дисперсией , иначе говоря

; .    (7.6)

Будем также полагать, что  для всех .

Найдем оценку величины  по совокупности последовательных наблюдений . Обозначим эту оценку через , а ошибку оценивания — через

.                    (7.7)

В зависимости от соотношения между величинами  и  оценивание называется предсказанием или экстраполяцией , фильтрацией или сглаживанием  и, наконец, интерполяцией . Подобное деление интуитивно вполне понятно, поскольку, например, предсказание  означает оценку состояния в-й момент, основанную на всех наблюдениях вплоть до -го момента. В этой главе в основном будем рассматривать задачу фильтрации, а предсказание и интерполяция будут исследованы в следующей главе.

Оценка будет условно и безусловно несмещенной, т. е.  и , а также будет линейной функцией последовательности наблюдений. Из множества возможных линейных несмещенных алгоритмов оценивания выберем лишь тот, который дает минимальную дисперсию ошибки, т. е. тот, для которого  или  минимальны.

В предыдущей главе мы установили, что оценка  по критерию минимума среднеквадратической ошибки совпадает с условным средним значением величины  при заданной совокупности наблюдений . Однако в общем случае, даже если модели сообщения и наблюдения являются линейными (а для сформулированной здесь задачи они являются именно такими), условное среднее не является линейной функцией наблюдений, следовательно, алгоритм оценивания не обладает желательным свойством линейности.

Чтобы получить линейный алгоритм оценивания, обеспечивающий минимальную дисперсию ошибки, мы должны использовать один из двух подходов. Один из них состоит в том, чтобы определить условное среднее, представляющее линейную форму, а затем найти наилучший вариант такой формы. Этот подход основан на использовании ортогонального проецирования. Другой подход основан на предположении, что случайные величины ,  и  совместно нормальны. В силу доказанного в гл. 4 свойства линейных систем не изменять нормальный закон распределения точное условное среднее в этом случае будет линейной формой. Линейная оценка с минимальной дисперсией должна быть равна оценке с минимальной дисперсией, если последняя действительно является линейной. Это имеет место, если предполагать нормальные законы распределения.

Заметим, что если мы требуем, чтобы алгоритм оценивания был линейным, то фактический закон распределения величин ,  и  не имеет значения. Однако, если распределения действительно являются нормальными, как это часто бывает, тогда условное среднее фактически является линейной формой. Иначе говоря, фильтр Калмана представляет собой наилучший (в смысле минимума дисперсии ошибки) линейный фильтр независимо от вида распределения и наилучший алгоритм из всех возможных линейных и нелинейных алгоритмов оценивания, если шумы объекта и измерения, а также начальное состояние имеют нормальные законы распределения.

При выводе уравнения для фильтра Калмана будем предполагать и требовать, чтобы наблюдения обрабатывались последовательно. Независимо от того, является ли алгоритм оценивания последовательным или нет, значения полученных оценок состояния не корректируются. Однако существенное значение имеет вычислительная реализуемость метода. Вероятно, наиболее значительный вклад Калмана и Бьюси состоит в том, что они впервые получили линейный алгоритм оценивания по критерию минимума дисперсии в последовательной форме, используя понятие переменных состояния. Проблема линейной последовательной фильтрации по критерию минимума дисперсии ошибки была давно уже решена Винером и другими авторами применительно к системам с одним входом и одним выходом. Главная заслуга Калмана состоит в том, что он обобщил теорию фильтрации Винера на случай нестационарных многомерных систем с нестационарными шумовыми реализациями конечной длительности и получил решение задачи фильтрации в рекуррентном виде.

Так как изложение существа проблемы несколько затянулось, перед тем, как непосредственно приступить к ее решению, подведем итоги. Мы хотим получить оптимальную по критерию минимума дисперсии ошибки линейную несмещенную оценку состояния линейной нестационарной динамической системы, на которую воздействует белый шум с нулевым средним и известной дисперсией.

Для получения оценки мы наблюдаем изменяющуюся во времени линейную функцию состояния на фоне аддитивного белого шума с нулевым средним и известной дисперсией. Начальное состояние процесса представляет собой случайную величину с известными средним значением и дисперсией. Корреляция между входным шумом и шумом измерения отсутствует и требуется найти алгоритм оценивания в рекуррентном виде. Алгоритм фильтрации Калмана представляет собой решение этой задачи. Применительно к дискретным системам рассмотрим два различных подхода к выводу уравнения фильтра Калмана, которые являются иллюстрацией двух идей, изложенных выше. В первом случае, когда используется подход, основанный на ортогональном проецировании, мы заранее выберем линейную форму алгоритма оценивания, а затем найдем наилучший алгоритм. Во втором случае, когда оценивание производится по максимуму апостериорной вероятности, будем предполагать, что случайные величины имеют нормальные законы распределения и найдем оптимальный алгоритм оценивания, который действительно окажется линейным. При выводе уравнения фильтрации Калманом использовался подход, основанный на методе ортогонального проецирования, поэтому изложение начнем с этого метода.

Ортогональное проецирование. Теория ортогонального проецирования вкратце была рассмотрена в § 6.6. Здесь без доказательства будут представлены некоторые обобщения приведенных там результатов; они нам понадобятся в дальнейшем. Линейная оценка величины  по критерию минимума дисперсии ошибки при заданном линейном пространстве наблюдений  задается ортогональной проекцией  на , т. е. .

Здесь использован символ  вместо , поскольку линейная оценка с минимальной дисперсией не совпадает в общем случае с условным математическим ожиданием. Если бы мы заранее предположили, что случайные величины имеют нормальные распределения, то  просто совпало бы с ; однако мы сознательно выбрали другой подход, чтобы подчеркнуть, что предположение о нормальных распределениях не является необходимым, если помнить, что полученный при этом алгоритм оценивания может оказаться не абсолютно наилучшим, а наилучшим лишь в классе линейных алгоритмов. Если ортогональная последовательность  образует базис для , то  может быть представлена следующим образом

.          (7.8)

Для получения решения в рекуррентной форме нам понадобится следующий результат. Если  - вектор, ортогональный , т.е. , для , где  - ортогональный базис для , тогда

.                  (7.9)

Этот результат и представляет собой лемму об ортогональном проецировании. Хотя нас будет интересовать фильтрация , т. е. , рассмотрим сначала одношаговое предсказание, т. е. . Для того чтобы получить решение в требуемой рекуррентной форме, воспользуемся принципом математической индукции. Предположим, что  известна и представим  через  и новое наблюдение . Однако , вообще говоря, не ортогонально  и прежде, чем воспользоваться ур-нием (7.9), необходимо найти составляющую наблюдения , ортогональную . По существу, это сводится к выделению новой информации, содержащейся в .

Легко показать, что вектор

    (7.10)

ортогонален . Заметим, что  представляет собой «новую информацию», содержащуюся в , так как для получения  наилучшая оценка величины  при условии, что задан , а именно , вычитается из . Это другая форма утверждения о том, что  ортогонален . Случайная величина  известна под названием «обновляющей». Используя ур-ние (7.10), можно выразить  через обновляющую случайную величину следующим образом:

.

Эти два выражения эквивалентны, так как  содержится в пространстве наблюдений  и, следовательно, не добавляется никакой дополнительной информации по сравнению с той, которая содержится в . Поскольку  и  ортогональны, можно воспользоваться ур-нием (7.9) и записать  как . Так как , то это выражение можно представить в следующем виде:

.    (7.11)

Отсюда следует, что  получается путем предсказания значения случайной величины  по предыдущим наблюдениям  с последующей коррекцией предсказанного значения в соответствии с новой информацией , содержащейся в текущем выборочном значении случайной величины . Концепция предсказания и коррекции является очень плодотворной и позволяет наглядно интерпретировать алгоритм Калмана. Поэтому при выводе алгоритма фильтрации будем использовать подход, опирающийся на идею предсказания и коррекции. Проанализируем в отдельности каждый из двух членов, стоящих в правой части ур-ния (7.11). Согласно выражению (7.1)  задается как . Поэтому , которая по определению равна , теперь становится равной

Согласно определению  и мы имеем

.

Так как  зависит только от  для  и  представляет собой белый шум, то математическое ожидание величины  при заданном  просто совпадает с безусловным математическим ожиданием . Таким образом, приведенный выше результат преобразуется в следующий:

.           (7.12)

Мы видим, что предсказанное значение , основанное на наблюдении , получается из  как результат невозмущенного перехода на один шаг вперед, т. е. при . Этот вывод не является неожиданным, поскольку наилучшая оценка , основанная на наблюдении , как было показано выше, тождественно равна нулю. Из этого также следует

, .            (7.13)

Это означает, что и при фильтрации, и при предсказании наилучшая оценка белого шума с нулевым средним тождественно равна нулю. Этот вывод крайне важен и будет весьма полезен, особенно при обсуждении понятия «обновляющего» процесса. Ниже аналогичным образом будет показано, что  определяется как  и что в действительности

,  .                  (7.14)

Если подставить ур-ние (7.12) в (7.11), то получим

.    (7.15)

Рассмотрим второе слагаемое в правой части этого уравнения. Используя ур-ние (7.8),  можно записать в следующем виде:

.    (7.16)

Теперь исследуем отдельно каждый член, стоящий в правой части этого уравнения. Подставив (7.1) для , получаем для первого члена уравнения

.    (7.17)

Теперь, используя определения величин  и  [см. ур-ния (7.3) и (7.10)],  можно записать в следующем виде:

где . Поэтому ур-ние (7.17) принимает вид

,

а после перемножения соответствующих членов преобразуется к виду

Так как  зависит только от , и , a  и  не коррелированны, то . Поскольку  представляет собой белый шум, а  зависит от  только при , то и третий член в правой части приведенного выше уравнения должен быть равен нулю. Последний член в правой части уравнения также равен нулю, так как  и  — не коррелированны. Поэтому остается только первый член и в результате имеем

                   (7.18)

Полученное выражение можно еще более упростить, если учесть, что . При этом  становится равным

Но первый член согласно лемме об ортогональном проецировании равен нулю. Поэтому ур-ние (7.18) можно записать в виде:

               (7.19)

где  Аналогичным образом можно показать, что

.      (7.20)

Если подставить уравнения (7.19), (7.20) и (7.10) в (7.16), то

   (7.21)

Поэтому выражение для  принимает вид

  (7.222)

Этот результат можно представить в более удобной форме, если ввести обозначение

         (7.23)

так что получаем окончательно      

              (7.24)

Величина называется коэффициентом усиления одношагового экстраполятора Калмана. Форма решения, представленного уравнениями (7.23) и (7.24), очень интересна и удобна с вычислительной точки зрения. Мы получили последовательный алгоритм вычисления  по известной величине , вычисленной на предыдущем шаге, и новому наблюдению . Новая оценка здесь формируется как результат экстраполяции старой оценки и последующей коррекции при помощи взвешенного сигнала ошибки наблюдения  Структурная схема экстраполятора Калмана показана на рис. 7.1б; для сравнения исходные модели сообщения и наблюдений показаны на рис. 7.1, а. Прежде чем воспользоваться полученным выше результатом, необходимо сначала найти выражение для , чтобы вычислить . Можно поступить иначе и найти . Для того чтобы определить , найдем сначала рекуррентное выражение для . Объединяя уравнения (7.1) и (7.24), получаем

Рис 7.1. Структурные схемы задачи одношагового предсказания: а) модели сообщения и наблюдений, б) устройство одношагового предсказания

Если теперь подставить выражение (7.3) для  и выполнить ряд простых алгебраических преобразований, то приведенное выше выражение приводится к виду

     (7.25)

Кроме того, что ур-ние (7.25) может быть использовано при вычислении , оно представляет также самостоятельный интерес, как закон изменения ошибки оценивания.

Так как среднее значение величины  равно нулю (поскольку оценка является несмещенной), а величины ,  и  — не коррелированы, то выражение для  может быть получено непосредственно, исходя из определения этой величины и ур-ния (7.25), в виде

или

Если теперь подставить (7.23) для  и упростить полученный результат, то получим следующее выражение для дисперсии ошибки:

  (7.26)

Уравнение (7.26) совместно с (7.23) и (7.24) полностью определяют линейный последовательный одношаговый экстраполятор с минимальной дисперсией ошибки.

Прежде чем воспользоваться полученным выше результатом, необходимо в уравнениях для  и  задать соответствующие начальные условия. Очевидно, что наилучшей оценкой величины  при условии, что не было произведено наблюдений, является  и, следовательно, Поэтому

Итак, в качестве начальных условий для алгоритмов одношагового предсказания выбираем ; .

Все алгоритмы одношагового предсказания сведены в табл. 7.1.

Уравнение (7.26) можно переписать также в следующем виде:

Если задать начальные условия в ур-ниях (7.24) и (7.26), то можно последовательно использовать алгоритмы одношагового предсказания. Например, ур-ние (7.23) с начальным условием  может быть использовано для нахождения , которое затем необходимо подставить в (7.24) для вычисления  по первому наблюдению . Уравнение дисперсии (7.26) используется на следующем этапе при пересчете  в . Полученное значение величины  затем используется для вычисления  и т. д. Обработка данных согласно уравнениям предсказания схематически показана на рис. 7.2. Внимательный анализ ур-ний (7.23) и (7.26) показывает, что вычисление величин  и  фактически выполняется без обращения к последовательности наблюдений . Можно заранее вычислить и запомнить матрицы коэффициентов усиления . Вероятно, мы могли бы не принимать этот метод предварительного вычисления матриц , если бы скорость поступления наблюдений на вход процессора не была такой высокой и не препятствовала бы выполнению вычислений согласно ур-ниям (7.23) и (7.26) в реальном масштабе времени или если бы возможность запоминания не являлась более доступной и дешевой по сравнению с возможностью вычислений в реальном времени.

Таблица 7.1. Дискретные алгоритмы одношагового предсказания

Модель сообщения

                   (7.1)

Модель наблюдений

                                   (7.3)

Априорные данные

; ; ;

;

;

;

.

Алгоритм предсказания

              (7.24)

Вычисление коэффициента усиления

            (7.23)

Вычисление априорной дисперсии

(7.26)

Начальные условия

;

.

Главное преимущество алгоритмов фильтрации Калмана заключается не столько в том, что они дают решение задачи фильтрации (решение другими способами было получено гораздо раньше), сколько в том, что решение непосредственно определяет практическую реализацию результатов. При решении многих практических задач можно обеспечить реализуемость вычислений по ур-ниям (7.23) и (7.26) в реальном масштабе времени и, следовательно, реализовать последовательные алгоритмы фильтрации в реальном масштабе времени. Еще одна характерная особенность рассмотренного подхода заключается в том, что дисперсия ошибки  вычисляется как составная часть оценки и поэтому может быть использована для контроля точности процедуры оценивания. Это основано на предположении о том, что модели сообщения и наблюдений, а также априорное распределение известны полностью.

 

Рис. 7.2. Структурная схема вычислений по алгоритмам предсказания

Пример 7.1. Пусть модели сообщения и наблюдений заданы скалярными уравнениями:

; .

причем  и  или,. Здесь мы предполагаем, что шум является стационарным и белым, хотя, вообще говоря, не обязательно, чтобы он был стационарным. Предположим также, что начальное значение  имеет нулевое среднее и единичную дисперсию, так что и .

Для этого примера уравнение оценивания (7.24) принимает вид

с коэффициентом усиления  , определяемым из уравнения

Уравнение дисперсии имеет вид

Вычислим  и  в предположении, что у нас имеются наблюдения , . Вычисляем сначала коэффициент усиления , используя начальное условие :

; .

Используя начальное условие , получаем  и . Дисперсию погрешности этой оценки определим из уравнения дисперсии следующим образом:

.

Теперь необходимо повторить все этапы вычислений, чтобы найти , оценку  и, наконец, дисперсию . Хотя рассмотренный пример является чрезвычайно простым, но он достаточно наглядно иллюстрирует все этапы вычислений, которые необходимо выполнить в процессе применения алгоритмов одношагового предсказания Калмана.

Одной из практически важных задач, возникающих при использовании приведенных выше результатов и даже более трудной, чем нахождение среднего значения и дисперсии начального состояния, является определение дисперсии входного шума и шума измерения. Значения дисперсий  и  часто могут быть получены либо из анализа физической сущности задачи, либо путем непосредственного измерения с разумной точностью. Аналогичные замечания можно сделать относительно априорных моментов вектора состояния. Величина  выбрана как наилучшая оценка среднего значения вектора состояния на нулевом шаге, т. е. до того, как были произведены наблюдения, a  как характеристика степени неопределенности при выборе .

В чисто качественном смысле можно утверждать, что чем значительнее неопределенность относительно истинного значения , тем большие значения  мы задаем.

Теперь обратимся к задаче фильтрации. Одношаговый зкстраполятор использовался как удобный этап решения этой основной задачи, и он часто имеет практическое значение. Мы убедимся, что решение проблемы фильтрации включает в себя одношаговое предсказание, результаты которого затем корректируются в соответствии с текущей информацией. Часто, но не всегда, решение проблемы фильтрации следует предпочесть решению проблемы одношаговой фильтрации.

Если оценка , полученная как результат фильтрации, а именно , известна, то  может быть получена как

                   (7.27)

Так как  и, следовательно,  зависят от  только для , то пространство наблюдений  не содержит информации относительно , где  — дискретный белый шум. Следовательно, для предсказания значения  по наблюдениям  достаточно предсказать значения  на один шаг вперед, полагая . Такой подход позволил получить ур-ние (7.27), которое будет использовано в дальнейшем. Умышленно допуская нестрогую запись ради простоты обозначения, запишем  как . За исключением специально оговариваемых случаев, как в , будем предполагать, что условия задаются пространстранством . В этих обозначениях ур-ние (7.27) перепишется в виде

.                     (7.28)

Очевидно, что две оценки , основанные на наблюдении , должны быть эквивалентны. Следовательно, можно использовать ур-ние (7.28) для получения последовательного алгоритма оценивания  из ур-ний (7.23), (7.24) и (7.26). Сначала подставим yp-н.ие (7.28) при  в (7.24). В результате получим

Если умножить обе части этого уравнения на , которая в силу свойств переходной матрицы состояний равна , то получим

Чтобы упростить полученное выражение, введем , определяемую как , или

,          (7.29)

если использовать для определения  ур-ние (7.23). Поэтому  записывается в виде

               (7.30)

Хотя ур-ние (7.30) представляет собой, вероятно, наиболее удобную форму записи уравнения оценивания для фильтра Калмана, в принципе можно получить несколько других форм записи. Две из них оказываются особенно полезными. Если воспользоваться соотношением, то ур-ние (7.30) можно переписать в следующем виде:

.                   (7.31)

Это выражение можно еще более упростить, если ввести «обновляющую» величину , чтобы получить

.          (7.32)

Уравнения (7.29)—(7.31) или (7.32) совместно с ур-нием (7.26) полностью дают решение проблемы линейной фильтрации по критерию минимума среднеквадратической ошибки. Заданные начальные условия по , а именно  и , используются для формирования начальных условий соответственно для  и  так же, как и в одношаговом экстраполяторе.

Алгоритмы фильтрации Калмана могут быть представлены в более удобной форме, если найти выражения для дисперсии ошибки фильтрации . К тому же дисперсия  может быть использована как критерий качества процедуры оценивания. Дисперсию  часто называют априорной дисперсией, так как она представляет собой дисперсию оценки  до момента наблюдения , а дисперсию  называют апостериорной дисперсией. Для того чтобы определить , сначала найдем выражение для . Опять возможно несколько форм представления . Одной из наиболее удобных для нашего случая является представление  с помощью ур-ния (7.32). В этом случае  определяется следующим образом:

Поэтому

Если теперь подставить ур-ния (7.29) для  и (7.19) и (7.20) для  и  в это выражение, то получим

Если воспользоваться ур-нием (7.29) для , то последнее выражение может быть переписано в виде

                      (7.33)

Согласно этому уравнению дисперсия ошибки фильтрации достаточно просто выражается через дисперсию ошибки одношагового предсказания. Использование величины  позволяет также значительно упростить ур-ние (7.26). Перепишем его в виде

Воспользовавшись ф-лой (7.29) для , можно записать это выражение как

Легко заметить, что величина, стоящая в фигурных скобках, представляет не что иное, как . Поэтому имеем

             (7.34)

Это выражение могло быть получено обычным способом путем вычисления дисперсии случайной величины, задаваемой ур-нием (7.1) при заданном .

Уравнения (7.29), (7.30), (7.33) и (7.34) полностью определяют окончательный вариант дискретного фильтра Калмана. Эти уравнения сведены в табл. 7.2. Структурная схема вычислений согласно полученным алгоритмам приведена на рис. 7.3, а структурная схема дискретного фильтра Калмана — на рис. 7.4.

Обращаем еще раз внимание на то, что в уравнение для дисперсии и коэффициента усиления не входит последовательность наблюдений, поэтому при необходимости эти величины могут быть вычислены заранее. Эта возможность условно показана на рис. 7.3 пунктирной линией.

Таблица 7.2. Сводка дискретных алгоритмов фильтрации Калмана

Модель сообщения

                  (7.1)

Модель наблюдений

                 (7.3)

Априорные данные

Алгоритмы фильтрации

                    (7.30)

Вычисление коэффициента усиления

(7.29)

Вычисление априорной дисперсии

             (7.34)

Уравнение для апостериорной дисперсии

.                      (7.33)

Начальные условия

Анализ структурной схемы рис.7.4 показывает, что в фильтре Калмана реализуется идея предсказания — коррекции. Предыдущая оценка  экстраполируется на один шаг вперед и затем используется для получения наилучшей оценки нового наблюдения , основанной на всех предыдущих наблюдениях. Ошибка между «наилучшей оценкой» текущего наблюдения и фактическим наблюдением а именно  или , представляет собой новую информацию [компоненту , ортогональную ]. Ошибка взвешивается с весом  учитывающим значение дисперсий входного процесса, измерения и ошибки оценивания для формирования сигнала коррекции. Сигнал коррекции складывается с предсказанной оценкой и в результате получается новая оценка.

Рис.7.3. Структурная схема вычислений по алгоритму фильтрации Калмана.

Рис. 7.4. Структурная схема дискретного фильтра Калмана.

Заметим, что структура фильтра Калмана, соответствующая ур-нию (7.30) и изображенная на рис. 7.4, очень напоминает структуру исходной модели сообщения, заданной ур-нием (7.1) и приведенной на рис. 7.1а. Алгоритм фильтрации строится на использовании «обновляющей» компоненты, которая содержит новую информацию, полученную в результате наблюдения.

Пример 7.2. Для иллюстрации применения алгоритма фильтрации Калмана рассмотрим двумерную модель сообщения, задаваемую уравнением

Наблюдение осуществляется согласно скалярной модели

Входной шум является стационарным с , а шум измерения — нестационарным с . Другими словами, измерения для четных индексов  осуществляются менее точно, чем для нечетных. Предположим, что дисперсия начальных ошибок (или начального состояния) задается матрицей . Требуется вычислить значение  для всех  от 1 до 10.

Используя ур-ния (7.29) и (7.34), а также начальное условие , можно легко вычислить  и , которые соответственно равны

Теперь с помощью ур-ния (7 23) можно вычислить апостериорную дисперсию

а также априорную дисперсию, которая изменяется для следующего шага согласно ур-нию (7.34) и становится равной

Рис. 7.5. Изменение коэффициентов усиления фильтра Калмана,  рассмотренного в примере 7.2

Теперь можно вычислить  и т.д. Компоненты вектора , при изменении  от 1 до 10, показаны на рис 7.5. Отметим характерное увеличение коэффициента усиления для нечетных значений , в результате которого усиливаются относительно точные измерения. Можно заметить, что коэффициент усиления достигает своего установившегося периодически изменяющегося значения за несколько выборок. Вероятно, полезно вкратце и чисто качественно обсудить влияние соотношения величин  и  на , даже если трудно получить общие количественные результаты. Во-первых, здесь важны относительные значения, а не абсолютные. В частности, легко показать, что в том случае, когда ,  и  умножаются на одну и ту же положительную скалярную постоянную, то  не изменяется. Весьма приближенно можно лишь утверждать, что коэффициент усиления зависит от отношения сигнала  к шуму . Элементы матрицы коэффициентов уменьшаются по мере уменьшения значений элементов матриц  и   [или только в ] или увеличения значений элементов матрицы . Этот результат представляется интуитивно вполне понятным, поскольку по мере уменьшения  следует ожидать все меньших изменений в состоянии , а поэтому нет необходимости «отслеживать» наблюдения так точно. Аналогичным образом, если  уменьшается, то повышается точность начальной оценки  и потребность в информации, содержащейся в наблюдениях, снижается и, следовательно, коэффициент усиления уменьшается. С другой стороны, если  будет возрастать, то коэффициент усиления снова уменьшается, препятствуя добавлению к оценке чрезмерного шума измерения. В пределе, когда  стремится к нулю, как нетрудно показать,  асимптотически приближается к нулю для больших значений . Когда  стремится к нулю, дисперсии ошибок также стремятся к нулю и процедура оценивания становится не зависящей от наблюдения и входит в режим, известный под названием насыщения по входным данным. Этот режим может привести к серьезным проблемам расходимости. Методы коррекции расходимости подробно обсудим в разд. 8.5.

Оценивание по критерию максимума апостериорной вероятности. Получим линейный алгоритм оценивания, предположив, что ,  и  имеют нормальные законы распределения. B этом случае нетрудно показать (см. § 4.2), что  и  — случайные величины с нормальным законом распределения для всех . Поэтому  представляет собой линейную функцию наблюдения. Иначе говоря, линейный алгоритм оценивания по критерию минимума дисперсии ошибки является алгоритмом оценивания с минимальной дисперсией ошибки, причем дисперсия ошибки меньше или равна дисперсии ошибки любого другого линейного либо нелинейного алгоритма оценивания.

Чтобы получить алгоритм оценивания по критерию максимума апостериорной вероятности, требуется лишь определить условную плотность вероятности величины  при заданном , а затем найти ее математическое ожидание. Так как условное распределение  при заданном  нормальное, то, как известно (см. §6.2), алгоритм оценивания, вычисляющий условное математическое ожидание, минимизирует не только средний квадрат ошибки, но также среднее значение абсолютной ошибки при простой и многих других функциях потерь.

Таким образом, можно поручить алгоритм оценивания с минимальной дисперсией, рассмотрев оценивание при любых других функциях потерь, например, оценивание по критерию максимума апостериорной вероятности (сокращенно МАВ-оценивание), когда функция потерь выбирается простой, а оценка совпадает с модой условной плотности.

Воспользуемся этим приемом [94] и построим алгоритм МАВ-оценивания. Так как некоторые выражения, с которыми придется оперировать, могут оказаться слишком длинными, в процессе изложения иногда будем пользоваться упрощенной формой записи. Допуская незначительную нестрогость, откажемся от индексного обозначения для плотностей вероятности, а рассматриваемые случайные величины будем обозначать как аргументы этих плотностей. Например, значение плотности вероятности случайной величины  в точке ,  записывается в этом случае как ; аналогично  записывается как . И не надо пытаться трактовать эту упрощенную форму записи как вероятность того, что  (это явная бессмыслица), вернее, плотность вероятности  следует рассматривать как функцию, а не как значение этой функции, которое она принимает для конкретного наблюдения. К сожалению, в нестрогой математике, которой пользуются инженеры, часто недостаточно четко подчеркивается различие между функцией, как отображением одного множества в другое, и конкретным значением этой функции.

Функция плотности вероятности, рассматриваемая при оценивании на основе критерия максимума апостериорной вероятности либо на основе условного математического ожидания, представляет собой функцию случайной величины  при заданной последовательности наблюдений  и обозначается как . Алгоритм оценивания, основанный на условном математическом ожидании, определяется как

                     (7.35)

Оценка по критерию максимума апостериорной вероятности, которую будем обозначать как , находится как решение уравнения

.                 (7.36)

при условии, что

               (7.37)

Если выполняется условие (7.37), которое требует, чтобы матрица вторых производных была отрицательно определенной, то решение ур-ния (7.36) соответствует максимуму условной плотности.

Чтобы найти выражение для , воспользуемся теоремой умножения и запишем  как

                            (7.38)

Если рассматривать  как объединение нового наблюдения и  предыдущих наблюдений, то ур-ние (7.38) перепишется в виде

            (7.39)

Рассмотрим числитель этого выражения. Применяя теорему умножения, можем записать

и далее

или

                 (7.40)

так как знание  несомненно исключает необходимость сохранения . Если  задана, то в  случайной величиной является только  и поскольку  — белый шум, то никакой информации  не содержится ни в , ни в .  Если подставить выражение (7.40) в (7.39), то получим

Применяя теорему умножения к знаменателю, полученное выражение запишем в виде

После сокращения на общую скалярную функцию вероятности  получаем

                 (7.41)

Теперь можно определить условную плотность вероятности случайной величины  при заданном  путем вычисления каждого выражения для вероятности, стоящего в правой части ур-ния (7.41). Рассмотрим каждый член в отдельности, доказывая, что каждая плотность вероятности, входящая в (7.41), нормальная, и определяя первые два момента, характеризующие нормальное распределение. Исследуем сначала . Так как  задается уравнением , a — нормальный случайный процесс, то плотность вероятности  несомненно является нормальной, поскольку  есть сумма нормального случайного процесса и постоянной величины . Среднее значение процесса равно

.          (7.42)

поскольку  — случайный процесс с нулевым средним значением. Дисперсия случайного процесса равна по определению

        (7.43)

а в данном случае

                     (7.44)

Отсюда плотность вероятности  можно записать в следующем виде:

                        (7.45)

Теперь рассмотрим знаменатель выражения (7.41), точнее, плотность вероятности величины  три заданном . Используя уравнение для модели наблюдений,  можно записать как

Согласно исходной постановке задачи известно, что  имеет нормальный закон распределения и не зависит от . Если предположить, что  —  нормальная, то несомненно  также является нормальной, так как  представляет собой линейную функцию (сумму) двух случайных величин, имеющих нормальный закон распределения. Плотность вероятности случайной величины  при заданном  и— нормальная, так как она в этом случае просто совпадает с , которая согласно исходному предположению — нормальная. Ниже будет показана справедливость допущения о том, что , а следовательно, и  являются нормальными для всех . Среднее значение  с плотностью  равно

,  (7.46)

где использовано ранее введенное обозначение ;  равно нулю, так как  — белый шум с нулевым средним. Дисперсия процесса  по определению равна

.

Подставляя выражение для  и используя обозначения

,

получим

 

или

                 (7.47)

Здесь мы воспользовались тем, что  и  независимы ( — белый шум), и исключили член, представляющий собой . Поэтому условная плотность вероятности величины  при заданном

   (7.48)

Если предположить, что  — нормальная, то необходимо найти только среднее значение и дисперсию. Среднее значение определяется ур-нием (7.28)

.    (7.49)

Из предыдущих результатов также известно, что дисперсия  при заданном  просто совпадает с априорной дисперсией ошибки . Таким образом, из ур-ния (7.34) имеем

    (7.50)

Теперь плотность вероятности  можно записать в виде

    (7.51)

Итак, все члены, стоящие в правой части выражения (7.41), определены и можно записать условную плотность вероятности величины  при заданном . Подстановка ф-л (7.45), (7.48) и (7.51) в (7.41) приводит к следующему результату:

                      (7.52)

Это выражение может быть записано в более компактном виде:

,              (7.53)

где  — постоянная;

;               (7.54)

;        (7.55)

                 (7.56)

Здесь дисперсия величины  при заданном , а именно , обозначена через , так как дисперсия величины  при заданном  определяется .

Доказательство эквивалентности выражений (7.52) и (7.53), хотя, в принципе, и не трудно, требует достаточно большого числа алгебраических преобразований. Равенство экспонент в этих двух выражениях можно доказать, если выписать соответствующие выражения, используя ф-лы (7.54) и (7 56), и применить леммы об обращении матриц. Коэффициент  легко найти, если (вспомнить, что плотность  — нормальная с дисперсией . Отсюда имеем следующее выражение для коэффициента :

.

Теперь можно проверить предположение о том, что плотность  — нормальная. Мы показали, что если плотность  является нормальной, то плотность  также нормальная. Используя ур-ние (7.1) и тот факт, что  — белый шум, можно показать, что плотность  также нормальная. Итак, имеем цепь утверждений, причем известно, что плотности  и , рассматриваемые в качестве начальных в этой цепи, являются нормальными. Следовательно, подтверждается предположение, что плотность  нормальная.

Оценка состояния  при заданном , основанная на условном математическом ожидании (оценка по критерию минимума дисперсии ошибки), определяется ур-нием (7.54) и согласуется с ранее полученными результатами [см. (7.30)]. Однако в этом случае оценка  точно равна условному математическому ожиданию (поскольку здесь предполагалось нормальное распределение), а не является наилучшей только в классе линейных оценок. Конечно, для нормального распределения обе оценки совпадают, так как условное математическое ожидание — линейная функция наблюдения.

Чтобы определить МАВ-оценку, необходимо найти значение , которое максимизирует . Воспользуемся известным приемом и будем искать максимум не самой плотности , а ее логарифма. В этом случае МАВ-оценка определяется выражением

.          (7.57)

После подстановки выражения (7.53) в это уравнение получаем

.

Так как первый член не содержит , имеем

              (7.58)

Таким образом, получаем окончательный результат, который представляется совершенно очевидным при рассмотрении ур-ния (7.53):

                            (7.59)

Достаточное условие максимума, выражаемое неравенством (7.37), теперь имеет вид

.        (7.60)

и в данном случае соблюдается в силу физических свойств матрицы дисперсий ошибок. Следовательно, МАВ-оценка совпадает с оценкой условного математического ожидания и оценкой по критерию минимума дисперсии ошибки. Совокупность величин  является достаточной статистикой для оценивания в том смысле, что полностью определяют условную плотность .

Следует отметить, что можно было бы непосредственно воспользоваться исходной формой записи плотности  [выражением (7.52)], а не компактной формой (7.53). Такой подход представляется более привлекательным, так как в этом случае не требуется знание более компактной формы, которая не является достаточно простой и очевидной. Если воспользоваться выражением (7.52) для , то в результате преобразования ур-ния (7.57) имеем

.     (7.61)

Если теперь сгруппировать члены, включающие в себя , то получим

  (7.62)

решение которого относительно  приводит к следующему результату:

   (7.63)

Хотя это решение для оптимальной оценки представлено не в такой удобной форме, как предыдущее, оно легко может быть приведено к (7.62), если воспользоваться леммой об обращении матриц либо непосредственно выражениями (7.55) и (7.56).

Из алгоритмов фильтрации Калмана можно получить ряд интересных и полезных выражений для дисперсии. Вот некоторые из наиболее полезных, связанные с понятием «обновляющего процесса»:

.            (7.64)

.    (7.65)

До сих пор мы предполагали, что  и  — случайные процессы с нулевым средним. Теперь рассмотрим случай, когда среднее значение процесса  не равно нулю:

.                                                              (7.66)

Определим те поправки, которые необходимо внести в уравнение фильтрации Калмана для того, чтобы оценка по-прежнему оставалась несмещенной. Из результатов, полученных в гл. 6, следует, что известное среднее должно быть включено в уравнение фильтрации.

Уравнение, определяющее закон изменения среднего значения вектора состояния, было выведено в гл. 3 [ур-ние (3.98)] и применительно к ур-нию (7.1) записывается в следующем виде:

,                  (7.67)

где . Если вычесть это уравнение из (7.1) и ввести центрированные величины  и , то получим

,                       (7.68)

где . Заметим, что  и  являются случайными процессами с нулевым средним. Аналогично можно записать уравнение для модели наблюдения:

.                                   (7.69)

где .

Теперь уравнение фильтра Калмана может быть непосредственно применено к модифицированным моделям (с нулевым средним) сообщения и наблюдения, так что выражение для оценки запишется в виде

.                      (7.70)

Так как  известно, то наилучшая (линейная по критерию минимума дисперсии ошибки) оценка вектора состояния  при заданном  должна быть равна . Поэтому, комбинируя уравнение для среднего значения  с ур-нием (7.70), получаем

.    (7.71)

Если теперь подставить выражение для , то результат запишется в виде

.

После подстановки выражения для  имеем

,            (7.72)

где предсказанное значение оценки теперь равно

.          (7.73)

Уравнение (7.73) представляется естественным, так как  по-прежнему формируется путем экстраполяции  на один шаг вперед с использованием наиболее вероятного значения  [которое представляет собой также оптимальную оценку , а именно, ].

Изложенный подход может быть также использован, когда на систему воздействует известная функция дискретного времени, т. е. когда модель сообщения имеет вид

,          (7.74)

где  — известная детерминированная функция дискретного времени. В этом случае предсказанное значение  записывается в виде

.         (7.75)

Это уравнение представляется особенно важным при решении задач стохастического управления. Аналогичным образом можно рассмотреть случай, когда   — случайный процесс с ненулевым средним или когда известная детерминированная функция дискретного времени  действует на выходе системы, т. е. когда модель наблюдения имеет следующий вид:

.                                         (7.76)

где . Применительно к этой задаче уравнение фильтрации (7.72) записывается в виде

.                       (7.77)

Можно получить еще одно обобщение, если предположить, что  и  коррелированны и имеют ковариационную функцию вида

.                                (7.78)

Поскольку вывод уравнений оценивания в этом случае аналогичен предыдущим, но гораздо длиннее, здесь он не приводится. Алгоритм для случая коррелированного шума может быть получен из алгоритма выведенного для некоррелированного шума, если «декоррелировать» сообщение и шумы. Это легко сделать, записав уравнение для модели сообщения как

.                      (7.79)

или

.               (7.80)

где ; ; .

Теперь модель сообщения, задаваемая ур-нием (7.80), содержит известную функцию на входе , связанную с . Выберем  такой, чтобы шумы объекта и измерений были некоррелированны. Из соотношения  получаем

Ковариационная функция будет равна нулю, если выполняется условие

                                              (7.81)

Таким образом, используя модель сообщения (7.80), мы реализуем алгоритмы фильтрации Калмана в стандартной форме. Поэтому легко получить алгоритмы, приведенные в табл. 7.3.

Таблица 7.3 . Обобщенный дискретный фильтр Калмана

Модель сообщения

Модель наблюдений

Априорные данные

Алгоритм одношагового предсказания  

.

Алгоритм фильтрации

.

Вычисление коэффициента усиления при одношаговом предсказании

.

Вычисление коэффициента усиления при фильтрации

.

Вычисление априорной дисперсии

Вычисление апостериорной дисперсии

Начальные условия

Они дают решение задачи линейной дискретной фильтрации в наиболее общей формулировке. В заключение отметим, что из общих результатов следуют, как частные, результаты, приведенные в табл. 7.2, если положить  и  равными нулю.

 



<< ПредыдущаяОглавлениеСледующая >>