9.3. Вычисление информативных признаковЗадача анализа яркостной структуры (формы) объекта чаще всего сводится к аппроксимации ее линейной комбинацией базисных функций. Если функция яркости задана на целочисленной решетке плоскости, то базисные функции получают путем решения алгебраической проблемы собственных значений для матриц изображений объектов. В чем суть этого (и далеко не единственного) подхода? Пусть - -матрица изображения объекта. Если найдется вектор , такой, что верно, то будет называться собственным значением матрицы , а - соответствующий ему собственный вектор. Если матрица нормальная, т. е. , то она может быть представлена в виде , где - ортогональная матрица размером , - столбцы матрицы , a - диагональная матрица с собственными значениями матрицы на диагонали. Данное спектральное разложение широко используют для распознавания уникальных «матричных» объектов (заданных, например, элементами матрицы), посредством вычисления информативных признаков, которыми служат собственных значений [9.8, гл. 2]. Другой часто используемый на практике тип разложения матриц - сингулярное разложение (в английской аббревиатуре SVD - singular value decomposition). Показано, что любую - матрицу можно представить в виде, где - ортогональная матрица размером, - ортогональная -матрица, а имеет специальную диагональную форму , где и - ранг матрицы . Таким образом, SVD матрицы можно записать в виде , где - столбцы матрицы , а - столбцы матрицы . Сингулярные значения записываются как квадратные корни из ненулевых собственных значений матрицы, и их можно использовать для поиска хорошей малоранговой аппроксимации исходной матрицы, а следовательно, и в качестве информативных признаков «скрытого образа» объекта. Коротко изложим также метод построения информативных признаков в статистическом варианте путем разложения по собственным векторам ковариационной матрицы ансамбля наблюдаемых данных. Пусть дано множество - матриц изображений объектов ; из них мы можем сформировать обучающую выборку векторов-признаков путем «лексикографического» упорядочения (по столбцам) элементов изображений . Базисные функции (соответствующие знаменитому разложению Карунена-Лоэва [9.8, гл. 8]) получаются путем решения проблемы собственных значений , где - ковариационная матрица ансамбля исходных данных, , где - ковариация -й и-й компонент векторов , а — дисперсия -й компоненты вектора измерений . - матрица, составленная из собственных векторов , а - диагональная матрица из собственных значений . При построении информативного набора признаков исходят из частичного разложения Карунена-Лоэва путем идентификации собственных векторов, соответствующих наибольшим собственным значениям (выделение «главных компонент» ). Это связано с тем, что каждый признак наряду с положительным вкладом в разделение несет в себе в силу ограниченности выборки и шумовую (случайную) составляющую. Если вектор содержит много неинформативных (или малоинформативных) признаков, то отношение «сигнал/шум» (в смысле разделения) значительно лучше для группы высокоинформативных признаков, чем для всей выборки [9.8]. Преобразование к главным компонентам имеет вид линейного преобразования , где — центрированный вектор признаков (изображений), а — подматрица, составленная из главных собственных векторов. Это преобразование выделяет малоразмерное подпространство, соответствующее в базисе Карунена-Лоэва максимальным собственным значениям.
|