рефераты конспекты курсовые дипломные лекции шпоры

Реферат Курсовая Конспект

Нейрон-классификатор

Нейрон-классификатор - раздел Геология, Классификация сейсмических сигналов на основе нейросетевых технологий Нейрон-Классификатор. Получал На Свои Входы Уже Линейно-Разделимые Множества....

Нейрон-классификатор. получал на свои входы уже линейно-разделимые множества.

Такие структуры носят название многослойные персептроны 1-4,7,10 рис. 1.3 . Легко показать, что, в принципе, всегда можно обойтись одним скрытым слоем, содержащим, достаточно большое число нейронов.

Действительно, увеличение скрытого слоя повышает размерность пространства, в котором выходной нейрон производит классификацию, что, соответственно, облегчает его задачу.

Персептроны весьма популярны в нейроинформатике.

И это обусловлено, в первую очередь, широким кругом доступных им задач, в том числе и задач классификации, распознавания образов, фильтрации шумов, предсказание временных рядов, и т.д причем применение именно этой архитектуры в ряде случаев вполне оправдано, с точки зрения эффективности решения задачи.

Рассмотрим какие алгоритмы обучения многослойных сетей разработаны и применяются в настоящее время. 7,10 . В основном все алгоритмы можно разбить на две категории Градиентные алгоритмы Стохастические алгоритмы. К первой группе относятся те, которые основаны на вычислении производной функции ошибки и корректировке весов в соответствии со значением найденной производной.

Каждый дальнейший шаг направлен в сторону антиградиента функции ошибки. Основу всех этих алгоритмов составляет хорошо известный алгоритм обратного распространения ошибки back propagation error . 1-5,7,10 где функция ошибки Многочисленные модификации, разработанные в последнее время, позволяют существенно повысить эффективность этого алгоритма. Из них наиболее известными являются 1. Обучение с моментом. 4,7 . Идея метода заключается в добавлении к величине коррекции веса значения пропорционального величине предыдущего изменения этого же весового коэффициента. 2. Автономный градиентный алгоритм Обучение с автоматическим изменением длины шага h . 10 3. RPROP от resilient -эластичный, в котором каждый вес имеет свой адаптивно настраиваемый темп обучения. 4 4. Методы второго порядка, которые используют не только информацию о градиенте функции ошибки, но и информацию о вторых производных. 3,4,7 . Стохастические методы обучения выполняют псевдослучайные изменения величин весов, сохраняя те изменения, которые ведут к улучшениям характеристик сети. К этой группе алгоритмов относятся такие как 1. Алгоритм поиска в случайном направлении. 10 2. Больцмановское обучение или алгоритм имитации отжига . 1 3. Обучение Коши, как дополнение к Больцмановскому обучению. 1 Основным недостатком этой группы алгоритмов является очень долгое время обучения, а соответственно и большие вычислительные затраты.

Однако, как пишут в различных источниках, эти алгоритмы обеспечивают глобальную оптимизацию, в то время как градиентные методы в большинстве случаев позволяют найти только локальные минимумы функционала ошибки.

Известны также алгоритмы, которые основаны на совместном использовании обратного распространения и обучения Коши. Коррекция весов в таком комбинированном алгоритме состоит из двух компонент направленной компоненты, вычисляемой с использованием алгоритма обратного распространения, и случайной компоненты, определяемой распределением Коши. Однако, несмотря на хорошие результаты, эти методы еще плохо исследованы. 4.3 Сети Ворда Одним из вариантов многослойного персептрона являются нейронные сети Ворда. Они способны выделять различные свойства в данных, благодаря наличию в скрытом слое нескольких блоков, каждый из которых имеет свою передаточную функцию рис. 4.4 . Передаточные функции обычно сигмоидного типа служат для преобразования внутренней активности нейрона.

Когда в разных блоках скрытого слоя используются разные передаточные функции, нейросеть оказывается способной выявлять новые свойства в предъявляемом образе.

Для настройки весовых коэффициентов используются те же алгоритмы, о которых говорилось в предыдущем разделе. 4.4. Сети Кохонена Сети Кохонена - это одна из разновидностей нейронных сетей, для настройки которой используется алгоритм обучения без учителя.

Задачей нейросети Кохонена является построение отображения набора входных векторов высокой размерности на карту кластеров меньшей размерности, причем таким образом, что близким кластерам на карте отвечают близкие друг к другу входные векторы в исходном пространстве.

Сеть состоит из M нейронов, образующих, как правило одномерную или двумерную карту рис. 4.2 . Элементы входных сигналов x i подаются на входы всех нейронов сети. В процессе функционирования самоорганизации на выходе слоя Кохонена формируются кластеры группа активных нейронов определённой размерности, выход которых отличен от нуля, характеризующие определённые категории входных векторов группы входных векторов, соответствующие одной входной ситуации . 9 Алгоритм Кохонена формирования карт признаков. Шаг 1. Инициализировать веса случайными значениями.

Задать размер окрестности s 0 , и скорость h 0 и t max. Шаг 2. Задать значения входных сигналов x 1 x p. Шаг 3. Вычислить расстояние до всех нейронов сети. Расстояния d k от входного сигнала x до каждого нейрона k определяется по формуле где x i - i-ый элемент входного сигнала, w ki - вес связи от i-го элемента входного сигнала к нейрону k. Шаг 4. Найти нейрон - победитель, т.е. найти нейрон j, для которого расстояние d j наименьшее j d j d k k p Шаг 5 . Подстроить веса победителей и его соседей.

Шаг 6. Обновить размер окрестности s t и скорость h t s t s 0 1-t t max h t h 0 1-t t max Шаг 7. Если t t max, то Шаг 2, иначе СТОП. Благодаря своим способностям к обобщению информации, карты Кохонена являются удобным инструментом для наглядного представления о структуре данных в многомерном входном пространстве, геометрию которого представить практически невозможно.

Сети встречного распространения. Еще одна группа технических применений связана с предобработкой данных. Карта Кохонена группирует близкие входные сигналы Х, а требуемая функция Y G X строится на основе обычной нейросети прямого распространения например многослойного персептрона или линейной звезды Гроссберга 1 к выходам нейронов Кохонена. Такая гибридная архитектура была предложена Р. Хехт-Нильсеном и имеет название сети встречного распространения 1-3,7,9 . Нейроны слоя Кохонена обучаются без учителя, на основе самоорганизации, а нейроны распознающих слоев адаптируются с учителем итерационными методами.

Пример такой структуры для решения задачи классификации сейсмических сигналов приведен на рис. 4.5. Второй уровень нейросети используется для кодирования информации. Весовые коэффициенты t ij i 1 M j 1,2 - коэффициенты от i-го нейрона слоя Кохонена к j-му нейрону выходного слоя рассчитываются следующим образом где Y i - выход i- го нейрона слоя Кохонена S j - компонента целевого вектора S 0,1 - взрыв, S 1,0 -землетрясение Таким образом после предварительного обучения и формирования кластеров в слое Кохонена, на фазе вторичного обучения все нейроны каждого полученного кластера соединяются активными единичными синапсами со своим выходным нейроном, характеризующим данный кластер.

Выход нейронов второго слоя определяется выражением 11 где K j - размерность j-ого кластера, т.е. количество нейронов слоя Кохонена соединённых с нейроном j выходного слоя отличными от нуля коэффициентами. R - пороговое значение 0 R 1 . Пороговое значение R можно выбрать таким образом, чтобы с одной стороны не были потеряны значения активированных кластеров, а с другой стороны - отсекался шум не активизированных кластеров. В результате на каждом шаге обработки исходных данных на выходе получаются значения S j, которые характеризуют явление, породившее данную входную ситуацию - землетрясение - взрыв . 4.5 Выводы по разделу Итак, подводя итог данной главе, следует сказать, что это далеко не полный обзор нейросетевых архитектур, которые успешно справляются с задачами классификации.

В частности ничего не было сказано о вероятностных нейронных сетях, о сетях с базисно радиальными функциями, о использовании генетических алгоритмов для настройки многослойных сетей и о других, пусть менее известных, но хорошо себя зарекомендовавших.

Соответственно проблема выбора наиболее оптимальной архитектуры для решения задачи классификации сейсмических сигналов вполне актуальна.

В идеале, конечно хотелось бы проверить эффективность хотя бы нескольких из них и выбрать наилучшую. Но для этого необходимо проводить более масштабные исследования, которые займут много времени. На данном этапе исследований была сделана попытка использовать хорошо изученные нейронные сети и алгоритмы обучения для того, чтобы убедиться в эффективности подхода в целом. В главе 6 детально обсуждается нейросеть, которая была исследована в рамках настоящей дипломной работы. 5.

– Конец работы –

Эта тема принадлежит разделу:

Классификация сейсмических сигналов на основе нейросетевых технологий

Существуют задачи, решение которых просто невозможно аналитическими методами, а нейросети успешно с ними справляются. Даже в том случае, если можно… В данном дипломе рассматривается задача, возникающая при сейсмическом… Несмотря на то, что для ее решения, в настоящее время успешно применяются методы статистического анализа, …

Если Вам нужно дополнительный материал на эту тему, или Вы не нашли то, что искали, рекомендуем воспользоваться поиском по нашей базе работ: Нейрон-классификатор

Что будем делать с полученным материалом:

Если этот материал оказался полезным ля Вас, Вы можете сохранить его на свою страничку в социальных сетях:

Все темы данного раздела:

Основные положения теории нейронных сетей
Основные положения теории нейронных сетей. Для того, чтобы обсуждать возможности нейросетевых технологий, необходимо хотя бы немного иметь представление об элементарных понятиях, о том, что же тако

Постановка задачи классификации сейсмических сигналов
Постановка задачи классификации сейсмических сигналов. Международная система мониторинга МСМ , сформировавшаяся в мире за последние десятилетия, предназначена для наблюдения за сейсмически активным

Выделение информационных признаков из сейсмограмм
Выделение информационных признаков из сейсмограмм. Исходные данные представлены в виде сейсмограмм рис. 3.1 - это временное отображение колебаний земной поверхности. В таком виде анализирова

Отбор наиболее информативных признаков для идентификации
Отбор наиболее информативных признаков для идентификации. Как было показано выше, в сейсмограмме анализируемого события можно выделить достаточно много различных характеристик, однако, далеко не вс

Оценка вероятности ошибочной классификации методом скользящего экзамена
Оценка вероятности ошибочной классификации методом скользящего экзамена. Оценивание вероятности ошибочной идентификации типа событий землетрясение-взрыв, в каждом конкретном регионе представляет со

Методы предварительной обработки данных
Методы предварительной обработки данных. Если возникает необходимость использовать нейросетевые методы для решения конкретных задач, то первое с чем приходится сталкиваться - это подготовка данных.

Максимизация энтропии как цель предобработки
Максимизация энтропии как цель предобработки. Рассмотрим основной руководящий принцип, общий для всех этапов предобработки данных. Допустим, что в исходные данные представлены в числовой фор

Реализация нейросетевой модели и исследование ее технических характеристик
Реализация нейросетевой модели и исследование ее технических характеристик. Ранее было показано, какими средствами нейроинформатики можно пытаться решить задачу идентификации типа сейсмического ист

Выбор начальных весовых коэффициентов
Выбор начальных весовых коэффициентов. Перед тем, как приступить к обучению нейронной сети, необходимо задать ее начальное состояние. От того насколько удачно будут выбраны начальные значения весов

Алгоритм обучения и методы его оптимизации
Алгоритм обучения и методы его оптимизации. Приступая к обучению выбранной нейросетевой модели, необходимо было решить, какой из известных типов алгоритмов, градиентный обратное распространения оши

Формирование обучающей выборки и оценка эффективности обученной нейросетевой модели
Формирование обучающей выборки и оценка эффективности обученной нейросетевой модели. Из исходных данных необходимо сформировать как минимум две выборки - обучающую и проверочную. Обучающая в

Функциональные возможности программы
Функциональные возможности программы. В программе nvclass. с - нейро-классификатор векторов данных реализована модель двухслойного персептрона, представленная в разделе 6. Эта программа пред

Общие сведения
Общие сведения. Программный пакет предназначенный для идентификации типа сейсмического события включает следующие модули Исходный код программы nvclass. c и nvclass. h Файл с настройками режима раб

Описание входного файла с исходными данными
Описание входного файла с исходными данными. В качестве исходных данных используется отформатированный текстовый файл, в котором хранится информация о размерности векторов, их количестве и с

Описание файла настроек
Описание файла настроек. Параметры настройки программы содержаться во входном файле nvclass. inp. Пример файла приведен в приложении 3. Для настройки используются следующие переменные TYPE -

Эксплуатация программного продукта
Эксплуатация программного продукта. Перед тем, как приступить к эксплуатации программного продукта рекомендуется ознакомиться с форматом данных, в котором должны быть записаны исходная выбор

Результат работы программы
Результат работы программы. Для исследований возможностей разработанного программного обеспечения были проведены различные эксперименты, основная цель которых - подобрать значения параметров

Пример файла с векторами признаков
Пример файла с векторами признаков. Представлена выборка из файла 9 Norv. txt, содержащего 9 размерные вектора признаков. NumOfPattern 86 PatternDimens 9 1 -14.3104 -13.2561 -13.4705 -13.430

Файл с настройками программы
Файл с настройками программы. Common parameters for programm NVCLASS 1 1 - OnlyTest mode, 1 2 - TestAfterLearn mode, 2 1 - CheckOneVector, 2 2 - CrossValidation mode. TYPE 2 2 NDATA 9 NPATTERN 86 P

Пример файла отчета
Пример файла отчета. NVCLASS report - Wed Jun 02 15 58 02 1999 Type 1 2 Neural Net - 18,12,1 PatternFile - vect. txt Test Vector s - vector. tst ResNetFname - 12. net LearnTolerance 0.10 Ini

Хотите получать на электронную почту самые свежие новости?
Education Insider Sample
Подпишитесь на Нашу рассылку
Наша политика приватности обеспечивает 100% безопасность и анонимность Ваших E-Mail
Реклама
Соответствующий теме материал
  • Похожее
  • Популярное
  • Облако тегов
  • Здесь
  • Временно
  • Пусто
Теги