Доставка цветов в Севастополе: SevCvety.ru
Главная -> Дистанционное зондирование

0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 [48] 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129

игрок 2 может сказать «стандартная» или «подправленная» и будет прав примерно в 50% случаев.

Другими словами, при данной сумме, если значение функции распределения вероятностей для стандартной пары больше, чем для подправленной пары, угадывание «стандартная» с большей вероятностью правильно; наоборот, если значение функции распределения вероятностей для подправленной пары больше, угадывание «подправленной» более часто правильно. Это интуитивно представляется разумным. Статистическое обоснование этой стратегии будет дано в разд. III.6.

jd со

с; I-

(- F-

о 03

1 2 3 4 • . •

Значение данных

s i-

о го

111.5. Статистическая характеристика данных дистанционных измерений

В предыдущем примере отмечалось, что функция распределения вероятностей, связанная с каждым набором игральных костей, может быть легко оценена путем многократного бросания костей и регистрации относительной частоты выпадания каждой суммы. Предположим теперь, что источником данных является отдельный канал многоспектрального сканера. Вместо угадывания, какой из двух наборов костей брошен, целью может быть «угадывание», какой из множества классов земного покрытия наблюдался. Связанные с ними функции распределения вероятностей вновь будут полезны и могут быть оценены по обучающим образам. Имея набор измерений для конкретного класса, нужно составить таблицу частоты повторения каждого значения данных для этого класса. Результаты можно представить в виде гистограммы (рис. П1.10,а). Подобные гистограммы можно построить для оценки функций распределения вероятностей для каждого класса, которые затем будут использованы, как в примере «игра в кости», для классификации спектральных измерений с неизвестной идентификацией (хотя мы еще не пояснили детально, как это фактически делается) .

Если число возможных значений данных велико, для записи в память ЭВМ гистограммы, представляющей функции и распределения вероятностей класса, может потребоваться очень много места. Кроме того, если мы попытаемся обобщить этот

1 2 3 4 • • •

Значение данных

Рис. III.10. Одномерное распределение данных и его параметрическая аппроксимация: а - распределение данных (гистограмма) для одного канала, б - распределение данных, аппроксимированное нормальной функцией плотности вероятностей



метод на несколько дополнительных диапазонов длин волн, требования к памяти ЭВМ быстро уйдут из-под контроля: число ячеек памяти, необходимых для записи я-мерной гистограммы, в которой каждое измерение может принимать р значений, равно Один из способов разрешения этой трудности - предположить, что каждая гистограмма, или функция распределения вероятностей, может быть адекватно аппроксимирована кривой, имеющей простую функциональную форму. В частности, мы будем предполагать, что функция распределения вероятностей для любого интересующего нас класса может быть представлена нормальной (или гауссовой) функцией плотности вероятностей (рис. 111.10,6), позднее будет приведено обоснование для этого предположения. Для одномерного случая нормальная функция плотности для класса i имеет вид

1 (X-JXi)2

(III.4)

где exp[ ]==e (основание натуральных логарифмов), возведенное в указанную степень; \ii = E{x\(i)i)-математическое ожидание или среднее значение измерений для класса t; gi = = Е[{х--1г)сог] -дисперсия измерений для класса i.

На практике \ц и не известны и должны оцениваться по обучающим выборкам. Согласно статистической теории, несмещенные оценки для .1г и опредсляются выражениями [2],:

где qi - число доступных обучающих образов класса i и Xj-/-й обучающий образ для класса i. Тогда оцененная функция распределения вероятностей для класса i имеет вид

1 {x-Y

(III.7)

Сделав такое параметрическое предположение о том, что функция вероятности любого класса может быть аппроксимирована нормальной функцией плотности, мы должны вместо всей гистограммы хранить в памяти ЭВМ только математические ожидания и дисперсии каждого класса. Если требуется значение функции распределения вероятностей для соответствующего распределения данных, то его можно вычислить по формуле (П1.7).

А если имеется два канала многоспектральных данных? В этом случае двухмерная функция вероятностей для каждого J52



класса может быть оценена путем записи частот повторения всех возможных пар значений данных: каждая пара состоит из-значения Xi канала 1 и значения Х2 канала 2. Результат будет представлять собой двухмерное обобщение (см. рис. III.10,а).. Но, как и в одномерном случае, в целях экономии памяти ЭВМ нужно сделать предположение о возможности параметрического представления функции распределения вероятностей нормальной функцией плотности вероятностей. Двухмерная нормальная функция плотности вероятностей имеет вид

Р (Xl, Ха I щ) = ---7-Y7- X

X ехр

2я (aaiaj2 - aii/Za (Xl - 2a;ja (xi - i.4 - Ига)

<7(11 PillPi22

(X2 - Нг?

(П1.8>

где !iij = £{Xj(Oi]-математическое ожидание данных канала / (для класса i)\ ffiift=£[(л:-(л:-jica) ]сог] - ковариация между каналами / и ife (для класса t). Если параметры \.щ и ацк записаны в памяти ЭВМ для каждого класса (всего пять параметров для каждого класса), функции распределения вероятностей для данных могут быть вычислены по формуле (1П.8). В принципе, мы можем продолжить обобщение метода для многоспектральных данных, включающих большее число каналов. Но, судя по сложности выражения (III.8), легко представить, как будет выглядеть формула для трех, четырех и так далее каналов! К счастью, использование векторной (матричной) записи [3] позволяет получить очень компактное выражение формул, подобных (III.8). Для общего случая л-мерных данных

Oill<7jl2- •

<J21<J22- •

•0J2n

(HI.9)

-Хп-

•О inn-

ЧТО соответственно обозначает вектор данных, вектор математического ожидания и ковариационную матрицу для класса i. Тогда многомерная п-мерная нормальная функция плотности может быть записана так:

Р{Х\щ) =

(2п)«/21 2- 11/2

ехр [-1/2 {X - UifZf (X - Ui)], (111.10)

где -определитель ковариационной матрицы Sj*, - обратная к 2г матрица; {X-Ui) - транспонированный вектор {X-Ui). Когда п = 2, нетрудно показать, что после выполнения некоторых преобразований уравнения (III.10) выражения (III.10) и (III.8) совпадают.



0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 [48] 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129



0.0428
Яндекс.Метрика