Читать в оригинале

<< Предыдущая Оглавление Следующая >>


9.3. Вычисление информативных признаков

Задача анализа яркостной структуры (формы) объекта чаще всего сводится к аппроксимации ее линейной комбинацией базисных функций. Если функция яркости задана на целочисленной решетке плоскости, то базисные функции получают путем решения алгебраической проблемы собственных значений для матриц изображений объектов. В чем суть этого (и далеко не единственного) подхода?

Пусть  - -матрица изображения объекта. Если найдется вектор , такой, что верно, то  будет называться собственным значением матрицы , а  - соответствующий ему собственный вектор. Если матрица  нормальная, т. е. , то она может быть представлена в виде , где  - ортогональная матрица размером ,  - столбцы матрицы , a - диагональная матрица с собственными значениями матрицы  на диагонали.

Данное спектральное разложение широко используют для распознавания уникальных «матричных» объектов (заданных, например, элементами матрицы), посредством вычисления информативных признаков, которыми служат  собственных значений [9.8, гл. 2].

Другой часто используемый на практике тип разложения матриц - сингулярное разложение (в английской аббревиатуре SVD - singular value decomposition). Показано, что любую - матрицу можно представить в виде, где - ортогональная матрица размером,  - ортогональная -матрица, а  имеет специальную диагональную форму

,

где  и  - ранг матрицы . Таким образом, SVD матрицы  можно записать в виде , где  - столбцы матрицы , а  - столбцы матрицы . Сингулярные значения  записываются как квадратные корни из ненулевых собственных значений матрицы, и их можно использовать для поиска хорошей малоранговой аппроксимации исходной матрицы, а следовательно, и в качестве информативных признаков «скрытого образа» объекта.

Коротко изложим также метод построения информативных признаков в статистическом варианте путем разложения по собственным векторам ковариационной матрицы  ансамбля наблюдаемых данных. Пусть дано множество - матриц изображений объектов  ; из них мы можем сформировать обучающую выборку векторов-признаков  путем «лексикографического» упорядочения (по столбцам) элементов изображений . Базисные функции (соответствующие знаменитому разложению Карунена-Лоэва [9.8, гл. 8]) получаются путем решения проблемы собственных значений , где  - ковариационная матрица ансамбля исходных данных,

,

где  - ковариация -й и-й компонент векторов , а  — дисперсия -й компоненты вектора измерений .  - матрица, составленная из собственных векторов , а  - диагональная матрица из собственных значений .

При построении информативного набора признаков исходят из частичного разложения Карунена-Лоэва путем идентификации собственных векторов, соответствующих наибольшим собственным значениям (выделение «главных компонент» ). Это связано с тем, что каждый признак наряду с положительным вкладом в разделение несет в себе в силу ограниченности выборки и шумовую (случайную) составляющую. Если вектор содержит много неинформативных (или малоинформативных) признаков, то отношение «сигнал/шум» (в смысле разделения) значительно лучше для группы высокоинформативных признаков, чем для всей выборки [9.8]. Преобразование  к главным компонентам имеет вид линейного преобразования , где — центрированный вектор признаков (изображений), а  — подматрица, составленная из главных собственных векторов. Это преобразование выделяет малоразмерное подпространство, соответствующее в базисе  Карунена-Лоэва максимальным собственным значениям.

 



<< Предыдущая Оглавление Следующая >>