рефераты конспекты курсовые дипломные лекции шпоры

Реферат Курсовая Конспект

Оценка вероятности ошибочной классификации методом скользящего экзамена

Оценка вероятности ошибочной классификации методом скользящего экзамена - раздел Геология, Классификация сейсмических сигналов на основе нейросетевых технологий Оценка Вероятности Ошибочной Классификации Методом Скользящего Экзамена. Оцен...

Оценка вероятности ошибочной классификации методом скользящего экзамена. Оценивание вероятности ошибочной идентификации типа событий землетрясение-взрыв, в каждом конкретном регионе представляет собой одну из основных практических задач мониторинга.

Эту задачу приходится решать на основании накопления региональных сейсмограмм событий, о которых доподлинно известно, что они порождены землетрясениями или взрывами.

Эти же сейсмограммы представляют собой обучающие данные для адаптации решающих правил.

Из теории распознавания образов известно, что наиболее точной и универсальной оценкой вероятности ошибок классификации является оценка, обеспечиваемая процедурой скользящего экзамена cross-validation 11 . В методе скользящего экзамена на каждом шаге один из обучающих векторов x sj, jО 1, n s, sО 1,2, исключается из обучающей выборки. Оставшиеся векторы используются для адаптации обучения LDF или QDF или любого другого дискриминатора. Исключенный вектор затем классифицируется с помощью дискриминатора, обученного без его участия.

Если этот вектор классифицируется неправильно, т.е. относится к классу 2 вместо класса 1 или наоборот, соответствующие счетчики n 12 или n 21 увеличиваются на 1. Исключенный вектор затем возвращается в обучающую выборку, а изымается уже другой вектор x s j 1 . Процедура повторяется для всех n l n 2 обучающих векторов. Вычисляемая в результате величина p 0 n 12 n 21 n l n 2 является состоятельной оценкой полной вероятности ошибочной классификации.

Значения дискриминатора, полученные в результате процедуры скользящего экзамена для обоих классов, ранжируются по амплитуде ранжированные последовательности удобнее сравнивать с порогом и делать выводы о физических причинах ошибочной классификации. 4. Обзор различных архитектур нейронных сетей, предназначенных для задач классификации Приступая к разработке нейросетевого решения, как правило, сталкиваешься с проблемой выбора оптимальной архитектуры нейронной сети. Так как области применения наиболее известных парадигм пересекаются, то для решения конкретной задачи можно использовать совершенно различные типы нейронных сетей, и при этом результаты могут оказаться одинаковыми.

Будет ли та или иная сеть лучше и практичнее, зависит в большинстве случаев от условий задачи. Так что для выбора лучшей приходится проводить многочисленные детальные исследования. Рассмотрим ряд основных парадигм нейронных сетей, успешно применяемых для решения задачи классификации, одна из постановок которой представлена в данной дипломной работе. 4.1 Нейрон - классификатор Простейшим устройством распознавания образов в нейроинформатике является одиночный нейрон рис. 4.1 , превращающий входной вектор признаков в скалярный ответ, зависящий от линейной комбинации входных переменных 1-5,7,10 Скалярный выход нейрона можно использовать в качестве т. н. дискриминантной функции. Этим термином называют индикатор принадлежности входного вектора к одному из заданных классов, а нейрон соответственно - линейным дискриминатором. Так, если входные вектора могут принадлежать одному из двух классов, можно различить тип входа, например, следующим образом если f x і 0 , входной вектор принадлежит первому классу, в противном случае - второму. Рассмотрим алгоритм обучения подобной структуры, приняв f x є x. Итак, в p-мерном пространстве задана обучающая выборка x 1 x n первый класс и y 1 y m второй класс. Требуется найти такие p 1- мерный вектор w, что для всех i 1 n и j 1 m w 0 x i, w 0 и w 0 y j, w 0. Переформулируем задачу, сведя ее к отделению нуля от конечного множества векторов в p 1 - мерном пространстве.

Для этого рассмотрим p 1 - мерные векторы z l l 0,1, n m В этих обозначениях условия разделения превращаются в систему n m однотипных неравенств В качестве нулевого приближения можно выбрать любой вектор w, например, w 0 , или wН R -0.5,0.5 . Цикл алгоритма состоит в том, что для всех l 1 n m проверяется неравенство z l, w 0 . Если для данного l Ј n m оно выполнено, переходим к следующем l либо при l n m заканчиваем цикл, если же не выполнено, то модифицируем w по правилу w w z l, или w w h T z l, где T - номер модификации, а , например.

Когда за весь цикл нет ни одной ошибки т.е. модификации w, то решение w найдено, в случае же ошибок полагаем l 1 и снова проходим цикл. В некоторых простейших случаях линейный дискриминатор - наилучший из возможных, а именно когда оба класса можно точно разделить одной гиперплоскостью, рисунок 4.2 демонстрирует эту ситуацию для плоскости, когда p 2 . 4.2 Многослойный персептрон Возможности линейного дискриминатора весьма ограничены. Для решения более сложных классификационных задач необходимо усложнить сеть вводя дополнительные скрытые слои нейронов, производящих промежуточную предобработку входных данных, таким образом, чтобы выходной

– Конец работы –

Эта тема принадлежит разделу:

Классификация сейсмических сигналов на основе нейросетевых технологий

Существуют задачи, решение которых просто невозможно аналитическими методами, а нейросети успешно с ними справляются. Даже в том случае, если можно… В данном дипломе рассматривается задача, возникающая при сейсмическом… Несмотря на то, что для ее решения, в настоящее время успешно применяются методы статистического анализа, …

Если Вам нужно дополнительный материал на эту тему, или Вы не нашли то, что искали, рекомендуем воспользоваться поиском по нашей базе работ: Оценка вероятности ошибочной классификации методом скользящего экзамена

Что будем делать с полученным материалом:

Если этот материал оказался полезным ля Вас, Вы можете сохранить его на свою страничку в социальных сетях:

Все темы данного раздела:

Основные положения теории нейронных сетей
Основные положения теории нейронных сетей. Для того, чтобы обсуждать возможности нейросетевых технологий, необходимо хотя бы немного иметь представление об элементарных понятиях, о том, что же тако

Постановка задачи классификации сейсмических сигналов
Постановка задачи классификации сейсмических сигналов. Международная система мониторинга МСМ , сформировавшаяся в мире за последние десятилетия, предназначена для наблюдения за сейсмически активным

Выделение информационных признаков из сейсмограмм
Выделение информационных признаков из сейсмограмм. Исходные данные представлены в виде сейсмограмм рис. 3.1 - это временное отображение колебаний земной поверхности. В таком виде анализирова

Отбор наиболее информативных признаков для идентификации
Отбор наиболее информативных признаков для идентификации. Как было показано выше, в сейсмограмме анализируемого события можно выделить достаточно много различных характеристик, однако, далеко не вс

Нейрон-классификатор
Нейрон-классификатор. получал на свои входы уже линейно-разделимые множества. Такие структуры носят название многослойные персептроны 1-4,7,10 рис. 1.3 . Легко показать, что, в принципе, все

Методы предварительной обработки данных
Методы предварительной обработки данных. Если возникает необходимость использовать нейросетевые методы для решения конкретных задач, то первое с чем приходится сталкиваться - это подготовка данных.

Максимизация энтропии как цель предобработки
Максимизация энтропии как цель предобработки. Рассмотрим основной руководящий принцип, общий для всех этапов предобработки данных. Допустим, что в исходные данные представлены в числовой фор

Реализация нейросетевой модели и исследование ее технических характеристик
Реализация нейросетевой модели и исследование ее технических характеристик. Ранее было показано, какими средствами нейроинформатики можно пытаться решить задачу идентификации типа сейсмического ист

Выбор начальных весовых коэффициентов
Выбор начальных весовых коэффициентов. Перед тем, как приступить к обучению нейронной сети, необходимо задать ее начальное состояние. От того насколько удачно будут выбраны начальные значения весов

Алгоритм обучения и методы его оптимизации
Алгоритм обучения и методы его оптимизации. Приступая к обучению выбранной нейросетевой модели, необходимо было решить, какой из известных типов алгоритмов, градиентный обратное распространения оши

Формирование обучающей выборки и оценка эффективности обученной нейросетевой модели
Формирование обучающей выборки и оценка эффективности обученной нейросетевой модели. Из исходных данных необходимо сформировать как минимум две выборки - обучающую и проверочную. Обучающая в

Функциональные возможности программы
Функциональные возможности программы. В программе nvclass. с - нейро-классификатор векторов данных реализована модель двухслойного персептрона, представленная в разделе 6. Эта программа пред

Общие сведения
Общие сведения. Программный пакет предназначенный для идентификации типа сейсмического события включает следующие модули Исходный код программы nvclass. c и nvclass. h Файл с настройками режима раб

Описание входного файла с исходными данными
Описание входного файла с исходными данными. В качестве исходных данных используется отформатированный текстовый файл, в котором хранится информация о размерности векторов, их количестве и с

Описание файла настроек
Описание файла настроек. Параметры настройки программы содержаться во входном файле nvclass. inp. Пример файла приведен в приложении 3. Для настройки используются следующие переменные TYPE -

Эксплуатация программного продукта
Эксплуатация программного продукта. Перед тем, как приступить к эксплуатации программного продукта рекомендуется ознакомиться с форматом данных, в котором должны быть записаны исходная выбор

Результат работы программы
Результат работы программы. Для исследований возможностей разработанного программного обеспечения были проведены различные эксперименты, основная цель которых - подобрать значения параметров

Пример файла с векторами признаков
Пример файла с векторами признаков. Представлена выборка из файла 9 Norv. txt, содержащего 9 размерные вектора признаков. NumOfPattern 86 PatternDimens 9 1 -14.3104 -13.2561 -13.4705 -13.430

Файл с настройками программы
Файл с настройками программы. Common parameters for programm NVCLASS 1 1 - OnlyTest mode, 1 2 - TestAfterLearn mode, 2 1 - CheckOneVector, 2 2 - CrossValidation mode. TYPE 2 2 NDATA 9 NPATTERN 86 P

Пример файла отчета
Пример файла отчета. NVCLASS report - Wed Jun 02 15 58 02 1999 Type 1 2 Neural Net - 18,12,1 PatternFile - vect. txt Test Vector s - vector. tst ResNetFname - 12. net LearnTolerance 0.10 Ini

Хотите получать на электронную почту самые свежие новости?
Education Insider Sample
Подпишитесь на Нашу рассылку
Наша политика приватности обеспечивает 100% безопасность и анонимность Ваших E-Mail
Реклама
Соответствующий теме материал
  • Похожее
  • Популярное
  • Облако тегов
  • Здесь
  • Временно
  • Пусто
Теги