рефераты конспекты курсовые дипломные лекции шпоры

Реферат Курсовая Конспект

Отбор наиболее информативных признаков для идентификации

Отбор наиболее информативных признаков для идентификации - раздел Геология, Классификация сейсмических сигналов на основе нейросетевых технологий Отбор Наиболее Информативных Признаков Для Идентификации. Как Было Показано В...

Отбор наиболее информативных признаков для идентификации. Как было показано выше, в сейсмограмме анализируемого события можно выделить достаточно много различных характеристик, однако, далеко не все из них могут действительно нести информацию, существенную для надежной идентификации взрывов и землетрясений.

Многочисленные исследования в дискримининтном анализе показали, что выделение малого числа наиболее информативных признаков исключительно важно для эффективной классификации. Несколько тщательно отобранных признаков могут обеспечить вероятность ошибочной классификации существенно меньшую, чем при использовании полного набора.

Ниже представлена процедура отбора наиболее информативных дискриминантных признаков, осуществляемая на основании обучающих реализаций землетрясений и взрывов из данного региона. 8 В начале каждый вектор x sj x i sj, iО 1, p где sО 1,2 - номер класса s 1 - землетрясения s 2 - взрывы, jО 1, n s, n s -число обучающих векторов данного класса состоит из p признаков, выбранных из эвристических соображений как предположительно полезные для данной проблемы распознавания. При этом число p может быть достаточно велико и даже превышать число имеющихся обучающих векторов в каждом из классов, но для устойчивости вычислений должно выполняться условие p n 1 n 2 . Процедура отбора признаков - итерационная и состоит из p шагов на каждом из которых число отобранных признаков увеличивается на единицу.

На каждом промежуточном k -м шаге процедура работает с n1 n2 k -мерными векторами x sj k kЈ p, сформированных из k-1 признаков, отобранных в результате первых k-1 шагов и некоторого нового признака из числа оставшихся.

Отбор признаков основан на оценивании по векторам, состоящим из различных признаков, стохастического расстояния Кульбака-Махаланобиса D k между распределениями вероятностей векторов x sj k D k m k, 1 - m k, 2 T S -1 n1 n2 k m k, 1 - m k, 2 , 6 где m k, 1 , m k, 2 k - мерные векторы выборочных средних, вычисленные по k -мерным векторам x 1j k jО 1, n 1 и x 2j k jО 1, n 2 первого и второго классов S -1 n1 n2 k есть kґ k - мерная обратная выборочная матрица ковариаций, вычисленная с использованием всего набора k - мерных векторов x 1j k jО 1, n 1 и x 2j k jО 1, n 2 На первом шаге процедуры отбора значения функционала D 1 вычисляются для каждого из p признаков.

Максимум из этих p значений достигается на каком то из признаков, который таким образом отбирается как первый информативный. На втором шаге значения функционала D 2 вычисляются уже для векторов, состоящих из пар признаков. Первый элемент в каждой паре - это признак, отобранный на предыдущем шаге, второй элемент пары - один их оставшихся признаков.

Таким образом получаются p-1 значения функционала D 2 . Второй информативный признак отбирается из условия, что на нем достигается максимум функционала D 2 . Далее процедура продолжается аналогично, и на k -м шаге процедуры отбора вычисляются значения функционала D k по обучающим векторам, состоящим из k признаков. Первые k-1 компонент этих векторов есть информативные признаки, отобранные на предыдущих k-1 шагах, последняя компонента - один из оставшихся признаков.

В качестве k -го информативного признака отбирается тот признак, для которого функционал D k -максимален. Описанная процедура ранжирует порядок следования признаков в обучающих векторах так, чтобы обеспечить максимально возможную скорость возрастания расстояния Махаланобиса 6 с ростом номера признака. Для селекции множества наиболее информативных признаков на каждом шаге k 1,2 p описанной выше итерационной процедуры ранжирования признаков по информативности сохраняются номер j k в исходной таблице признаков и имя выбранного признака, также вычисляется теоретическое значение полной вероятности ошибки классификации P k по формуле Колмогорова-Деева 12 . P k 1 2 1 - T k D k s k T k -D k s k, где k - число используемых признаков s 2 k t 1 t r 1 r 2 D k t r 1 r 2 r 1 r 2 -1 r 1 k n 1 r 2 k n 2 7 T k z F z 1 k-1 a 1 - a 2 H 1 z a 3 H 2 z - a 4 H 3 z f z , F z - функция стандартного Гауссовского распределения вероятностей f z - плотность этого распределения H i z - полином Эрмита степени i, i 1,2,3 a j, j 1 4 - некоторые коэффициенты, зависящие от k, n 1 , n 2 и D k 12 . Эта формула, как было показано в различных исследованиях, имеет хорошую точность при размерах выборок порядка сотни и r s 0.3, s 1,2. Функция D k, получаемая в результате процедуры ранжирования признаков, возрастает с ростом k, однако, на практике ее рост, как правило, существенно замедляется при k p. В этом случае функция P k на каком то шаге k 0 между 1 и p имеет минимум.

В качестве набора наиболее информативных признаков и принимается совокупность признаков, отобранных на шагах 1 k 0 описанной выше процедуры.

Именно они обеспечивают минимальную полную вероятность ошибочной классификации, которая может быть получена при данных обучающих наблюдениях. 3.3 Процедура статистической идентификации.

В качестве решающего правила используются алгоритмы идентификации, основанные на классических статистических дискриминаторах, таких как линейный и квадратичный дискриминаторы.

Данные алгоритмы применяются наиболее часто в виду простоты их использования, удобства обучения применительно к конкретному региону и легкости оценивания вероятности ошибочной идентификации взрывов и землетрясений для каждого конкретного региона. Их роль как эффективных правил выбора решения при идентификации особенно возрастает, если применять эти алгоритмы к множествам обучающих и идентифицируемых векторов, составленных из наиболее информативных для данного региона дискриминантных признаков, отобранных в соответствии с описанной выше методикой.

Линейная дискриминантная функция описывается следующей формулой . 8 где k - число отобранных наиболее информативных признаков, x k - классифицируемый вектор, m k, 1 , m k, 2 - k - мерные векторы выборочных средних, вычисленные по k -мерным векторам x 1j k jО 1, n 1 и x 2j k jО 1, n 2 1го и 2-го классов, S -1 n1 n2 k - kґ k - мерная обратная выборочная матрица ковариаций, вычисленная с использованием всего набора k - мерных векторов x 1j k jО 1, n 1 и x 2j k jО 1, n 2 . Если LDF 0, то принимается, что вектор x k принадлежит первому классу - землетрясение в противоположном случае он принадлежит второму класс взрыв. Квадратичная дискриминационная функция описывается следующей формулой 9 где, s 1,2 - обратные матрицы ковариаций обучающих выборок 1 -го и 2 -го классов, вычисленные по обучающим векторам x 1j k jО 1, n 1 и x 2j k jО 1, n 2 , соответственно. 3.4

– Конец работы –

Эта тема принадлежит разделу:

Классификация сейсмических сигналов на основе нейросетевых технологий

Существуют задачи, решение которых просто невозможно аналитическими методами, а нейросети успешно с ними справляются. Даже в том случае, если можно… В данном дипломе рассматривается задача, возникающая при сейсмическом… Несмотря на то, что для ее решения, в настоящее время успешно применяются методы статистического анализа, …

Если Вам нужно дополнительный материал на эту тему, или Вы не нашли то, что искали, рекомендуем воспользоваться поиском по нашей базе работ: Отбор наиболее информативных признаков для идентификации

Что будем делать с полученным материалом:

Если этот материал оказался полезным ля Вас, Вы можете сохранить его на свою страничку в социальных сетях:

Все темы данного раздела:

Основные положения теории нейронных сетей
Основные положения теории нейронных сетей. Для того, чтобы обсуждать возможности нейросетевых технологий, необходимо хотя бы немного иметь представление об элементарных понятиях, о том, что же тако

Постановка задачи классификации сейсмических сигналов
Постановка задачи классификации сейсмических сигналов. Международная система мониторинга МСМ , сформировавшаяся в мире за последние десятилетия, предназначена для наблюдения за сейсмически активным

Выделение информационных признаков из сейсмограмм
Выделение информационных признаков из сейсмограмм. Исходные данные представлены в виде сейсмограмм рис. 3.1 - это временное отображение колебаний земной поверхности. В таком виде анализирова

Оценка вероятности ошибочной классификации методом скользящего экзамена
Оценка вероятности ошибочной классификации методом скользящего экзамена. Оценивание вероятности ошибочной идентификации типа событий землетрясение-взрыв, в каждом конкретном регионе представляет со

Нейрон-классификатор
Нейрон-классификатор. получал на свои входы уже линейно-разделимые множества. Такие структуры носят название многослойные персептроны 1-4,7,10 рис. 1.3 . Легко показать, что, в принципе, все

Методы предварительной обработки данных
Методы предварительной обработки данных. Если возникает необходимость использовать нейросетевые методы для решения конкретных задач, то первое с чем приходится сталкиваться - это подготовка данных.

Максимизация энтропии как цель предобработки
Максимизация энтропии как цель предобработки. Рассмотрим основной руководящий принцип, общий для всех этапов предобработки данных. Допустим, что в исходные данные представлены в числовой фор

Реализация нейросетевой модели и исследование ее технических характеристик
Реализация нейросетевой модели и исследование ее технических характеристик. Ранее было показано, какими средствами нейроинформатики можно пытаться решить задачу идентификации типа сейсмического ист

Выбор начальных весовых коэффициентов
Выбор начальных весовых коэффициентов. Перед тем, как приступить к обучению нейронной сети, необходимо задать ее начальное состояние. От того насколько удачно будут выбраны начальные значения весов

Алгоритм обучения и методы его оптимизации
Алгоритм обучения и методы его оптимизации. Приступая к обучению выбранной нейросетевой модели, необходимо было решить, какой из известных типов алгоритмов, градиентный обратное распространения оши

Формирование обучающей выборки и оценка эффективности обученной нейросетевой модели
Формирование обучающей выборки и оценка эффективности обученной нейросетевой модели. Из исходных данных необходимо сформировать как минимум две выборки - обучающую и проверочную. Обучающая в

Функциональные возможности программы
Функциональные возможности программы. В программе nvclass. с - нейро-классификатор векторов данных реализована модель двухслойного персептрона, представленная в разделе 6. Эта программа пред

Общие сведения
Общие сведения. Программный пакет предназначенный для идентификации типа сейсмического события включает следующие модули Исходный код программы nvclass. c и nvclass. h Файл с настройками режима раб

Описание входного файла с исходными данными
Описание входного файла с исходными данными. В качестве исходных данных используется отформатированный текстовый файл, в котором хранится информация о размерности векторов, их количестве и с

Описание файла настроек
Описание файла настроек. Параметры настройки программы содержаться во входном файле nvclass. inp. Пример файла приведен в приложении 3. Для настройки используются следующие переменные TYPE -

Эксплуатация программного продукта
Эксплуатация программного продукта. Перед тем, как приступить к эксплуатации программного продукта рекомендуется ознакомиться с форматом данных, в котором должны быть записаны исходная выбор

Результат работы программы
Результат работы программы. Для исследований возможностей разработанного программного обеспечения были проведены различные эксперименты, основная цель которых - подобрать значения параметров

Пример файла с векторами признаков
Пример файла с векторами признаков. Представлена выборка из файла 9 Norv. txt, содержащего 9 размерные вектора признаков. NumOfPattern 86 PatternDimens 9 1 -14.3104 -13.2561 -13.4705 -13.430

Файл с настройками программы
Файл с настройками программы. Common parameters for programm NVCLASS 1 1 - OnlyTest mode, 1 2 - TestAfterLearn mode, 2 1 - CheckOneVector, 2 2 - CrossValidation mode. TYPE 2 2 NDATA 9 NPATTERN 86 P

Пример файла отчета
Пример файла отчета. NVCLASS report - Wed Jun 02 15 58 02 1999 Type 1 2 Neural Net - 18,12,1 PatternFile - vect. txt Test Vector s - vector. tst ResNetFname - 12. net LearnTolerance 0.10 Ini

Хотите получать на электронную почту самые свежие новости?
Education Insider Sample
Подпишитесь на Нашу рассылку
Наша политика приватности обеспечивает 100% безопасность и анонимность Ваших E-Mail
Реклама
Соответствующий теме материал
  • Похожее
  • Популярное
  • Облако тегов
  • Здесь
  • Временно
  • Пусто
Теги