9.3. Вычисление информативных признаков
Задача анализа яркостной структуры (формы) объекта чаще всего сводится к аппроксимации ее линейной комбинацией базисных функций. Если функция яркости задана на целочисленной решетке плоскости, то базисные функции получают путем решения алгебраической проблемы собственных значений для матриц изображений объектов. В чем суть этого (и далеко не единственного) подхода?
Пусть
-
-матрица изображения объекта. Если найдется вектор
, такой, что верно
, то
будет называться собственным значением матрицы
, а
- соответствующий ему собственный вектор. Если матрица
нормальная, т. е.
, то она может быть представлена в виде
, где
- ортогональная матрица размером
,
- столбцы матрицы
, a
- диагональная матрица с собственными значениями матрицы
на диагонали.
Данное спектральное разложение широко используют для распознавания уникальных «матричных» объектов (заданных, например, элементами матрицы
), посредством вычисления информативных признаков, которыми служат
собственных значений
[9.8, гл. 2].
Другой часто используемый на практике тип разложения матриц - сингулярное разложение (в английской аббревиатуре SVD - singular value decomposition). Показано, что любую
- матрицу
можно представить в виде
, где
- ортогональная матрица размером
,
- ортогональная
-матрица, а
имеет специальную диагональную форму
,
где
и
- ранг матрицы
. Таким образом, SVD матрицы
можно записать в виде
, где
- столбцы матрицы
, а
- столбцы матрицы
. Сингулярные значения
записываются как квадратные корни из ненулевых собственных значений матрицы
, и их можно использовать для поиска хорошей малоранговой аппроксимации исходной матрицы, а следовательно, и в качестве информативных признаков «скрытого образа» объекта.
Коротко изложим также метод построения информативных признаков в статистическом варианте путем разложения по собственным векторам ковариационной матрицы
ансамбля наблюдаемых данных. Пусть дано множество
- матриц изображений объектов
; из них мы можем сформировать обучающую выборку векторов-признаков
путем «лексикографического» упорядочения (по столбцам) элементов изображений
. Базисные функции (соответствующие знаменитому разложению Карунена-Лоэва [9.8, гл. 8]) получаются путем решения проблемы собственных значений
, где
- ковариационная матрица ансамбля исходных данных
,
,
где
- ковариация
-й и
-й компонент векторов
, а
— дисперсия
-й компоненты вектора измерений
.
- матрица, составленная из собственных векторов
, а
- диагональная матрица из собственных значений
.
При построении информативного набора признаков исходят из частичного разложения Карунена-Лоэва путем идентификации собственных векторов, соответствующих наибольшим собственным значениям (выделение «главных компонент»
). Это связано с тем, что каждый признак наряду с положительным вкладом в разделение несет в себе в силу ограниченности выборки и шумовую (случайную) составляющую. Если вектор содержит много неинформативных (или малоинформативных) признаков, то отношение «сигнал/шум» (в смысле разделения) значительно лучше для группы высокоинформативных признаков, чем для всей выборки [9.8]. Преобразование
к главным компонентам имеет вид линейного преобразования
, где
— центрированный вектор признаков (изображений), а
— подматрица, составленная из главных собственных векторов. Это преобразование выделяет малоразмерное подпространство, соответствующее в базисе Карунена-Лоэва максимальным собственным значениям.