рефераты конспекты курсовые дипломные лекции шпоры

Реферат Курсовая Конспект

Алгоритм обучения и методы его оптимизации

Алгоритм обучения и методы его оптимизации - раздел Геология, Классификация сейсмических сигналов на основе нейросетевых технологий Алгоритм Обучения И Методы Его Оптимизации. Приступая К Обучению Выбранной Не...

Алгоритм обучения и методы его оптимизации. Приступая к обучению выбранной нейросетевой модели, необходимо было решить, какой из известных типов алгоритмов, градиентный обратное распространения ошибки или стохастический Больцмановское обучение использовать.

В силу ряда субъективных причин был выбран именно первый подход, который и представлен в этом разделе.

Обучение нейронных сетей как минимизация функции ошибки Когда функционал ошибки нейронной сети задан раздел 6.3 , то главная задача обучения нейронных сетей сводится к его минимизации.

Градиентное обучение - это итерационная процедура подбора весов, в которой каждый следующий шаг направлен в сторону антиградиента функции ошибки.

Математически это можно выразить следующим образом, или, что то же самое, здесь h t - темп обучения на шаге t. В теории оптимизации этот метод известен как метод наискорейшего спуска. Метод обратного распространения ошибки Исторически наибольшую трудность на пути к эффективному правилу обучения многослойных персептронов вызвала процедура расчета градиента функции ошибки. Дело в том, что ошибка сети определяется по ее выходам, т.е. непосредственно связана лишь с выходным слоем весов.

Вопрос состоял в. том, как определить ошибку для нейронов на скрытых слоях, чтобы найти производные по соответствующим весам.

Нужна была процедура передачи ошибки с выходного слоя к предшествующим слоям сети, в направлении обратном обработке входной информации. Поэтому такой метод, когда он был найден, получил название метода обратного распространения ошибки error back-propagation. Разберем этот метод на примере двухслойного персептрона с одним нейроном на выходе. рис 6.1 Для этого воспользуемся введенными ранее обозначениями.

Итак, -Функция ошибки 13 -необходимая коррекция весов коррекция весов 14 для выходного слоя D v записывается следующим образом.

Коррекция весов между входным и скрытым слоями производится по формуле 15 Подставляя одно выражение в другое получаем 16 Производная функции активации, как было показано ранее раздел 6.1 , вычисляется через значение самой функции.

Непосредственно алгоритм обучения состоит из следующих шагов 1. Выбрать очередной вектор из обучающего множества и подать его на вход сети. 2. Вычислить выход сети y x по формуле 12 . 3. Вычислить разность между выходом сети и требуемым значением для данного вектора 13 . 4. Если была допущена ошибка при классификации выбранного вектора, то подкорректировать последовательно веса сети сначала между выходным и скрытым слоями 15 , затем между скрытым и входным 16 . 5. Повторять шаги с 1 по 4 для каждого вектора обучающего множества до тех пор, пока ошибка на всем множестве не достигнет приемлемого уровня.

Несмотря на универсальность, этот метод в ряде случаев становится малоэффективным.

Для того, чтобы избежать вырожденных случаев, а также увеличить скорость сходимости функционала ошибки, разработано много модификаций стандартного алгоритма, в частности две из которых и предлагается использовать.

Многостраничное обучение С математической точки зрения обучение нейронных сетей НС - это многопараметрическая задача нелинейной оптимизации.

В классическом методе обратного распространения ошибки single-режим обучение НС рассматривается как набор однокритериальных задач оптимизации. Критерий для каждой задачи - качество решения одного примера из обучающей выборки. На каждой итерации алгоритма обратного распространения параметры НС синаптические веса и смещения модифицируются так, чтобы улучшить решение одного примера. Таким образом, в процессе обучения циклически решаются однокритериальные задачи оптимизации. Из теории оптимизации следует, что при решении многокритериальных задач модификации параметров следует производить, используя сразу несколько критериев примеров, в идеале - все. Тем более нельзя ограничиваться одним примером при оценке производимых изменений значений параметров.

Для учета нескольких критериев при модификации параметров используют агрегированные или интегральные критерии, которые могут быть, например, суммой, взвешенной суммой или квадратным корнем от суммы квадратов оценок решения отдельных примеров.

В частности, в настоящих исследованиях изменения весов проводилось после проверки всей обучающей выборки, при этом функция ошибки рассчитывалась в виде где, k - номер обучающей пары в обучающей выборке, k 1,2 n 1 n 2 n 1 - количество векторов первого класса n 2 - число векторов второго класса. Как показывают тестовые испытания, обучение при использовании пакетного режима, как правило сходится быстрее, чем обучение по отдельным примерам. Автоматическая коррекция шага обучения В качестве еще одного расширения традиционного алгоритма обучения предлагается использовать так называемый градиентный алгоритм с автоматическим определением длины шага h. Для его описания необходимо определить следующий набор параметров начальное значение шагаh 0 количество итераций, через которое происходит запоминание данных сети синоптических весов и смещений величина в процентах увеличения шага после запоминания данных сети, и величина уменьшения шага в случае увеличения функции ошибки.

В начале обучения записываются на диск значения весов и смещений сети. Затем происходит заданное число итераций обучения с заданным шагом.

Если после завершения этих итераций значение функции ошибки не возросло, то шаг обучения увеличивается на заданную величину, а текущие значения весов и смещений записываются на диск. Если на некоторой итерации произошло увеличение функции ошибки, то с диска считываются последние запомненные значения весов и смещений, а шаг обучения уменьшается на заданную величину.

При использовании автономного градиентного алгоритма происходит автоматический подбор длины шага обучения в соответствии с характеристиками адаптивного рельефа, и его применение позволило заметно сократить время обучения сети без потери качества полученного результата. Эффект переобучения Одна из наиболее серьезных трудностей изложенного подхода обучения заключается в том, что таким образом минимизируется не та ошибка, которую на самом деле нужно минимизировать, а ошибка, которую можно ожидать от сети, когда ей будут подаваться совершенно новые наблюдения.

Иначе говоря, хотелось бы, чтобы нейронная сеть обладала способностью обобщать результат на новые наблюдения. В действительности сеть обучается минимизировать ошибку на обучающем множестве, и в отсутствие идеального и бесконечно большого обучающего множества это совсем не то же самое, что минимизировать настоящую ошибку на поверхности ошибок в заранее неизвестной модели явления 5 . Иначе говоря, вместо того, чтобы обобщить известные примеры, сеть запомнила их. Этот эффект и называется переобучением.

Соответственно возникает проблема - каким методом оценить ошибку обобщения? Поскольку эта ошибка определена для данных, которые не входят в обучающее множество, очевидным решением проблемы служит разделение всех имеющихся в нашем распоряжении данных на два множества обучающее - на котором подбираются конкретные значения весов, и валидационного - на котором оцениваются предсказательные способности сети. На самом деле, должно быть еще и третье множество, которое вообще не влияет на обучение и используется лишь для оценки предсказательных возможностей уже обученной сети. Ошибки, полученные на обучающем, валидационном и тестовом множестве соответственно называются ошибка обучения, валидационная ошибка и тестовая ошибка. В нейроинформатике для борьбы с переобучением используются три основных подхода Ранняя остановка обучения Прореживание связей метод от большого к малому Поэтапное наращивание сети от малого к большому. Самым простым является первый метод.

Он предусматривает вычисление во время обучения не только ошибки обучения, но и ошибки валидации, используя ее в качестве контрольного параметра.

В самом начале работы ошибка сети на обучающем и контрольном множестве будет одинаковой. По мере того, как сеть обучается, ошибка обучения, естественно, убывает, и, пока обучение уменьшает действительную функцию ошибок, ошибка на контрольном множестве также будет убывать.

Если же контрольная ошибка перестала убывать или даже стала расти, это указывает на то, что сеть начала слишком близко аппроксимировать данные и обучение следует остановить. Рисунок 6.5 дает качественное представление об этой методике. Использование этой методики в работе с сейсмическими данными затруднено тем обстоятельством, что исходная выборка очень мала, а хотелось бы как можно больше данных использовать для обучения сети. В связи с этим было принято решение отказаться от формирования валидационного множества, а в качестве момента остановки алгоритма обучения использовать следующее условие ошибка обучения достигает заданного минимального уровня, причем значение минимума устанавливается немного большим чем обычно. Для проверки этого условия проводились дополнительные эксперименты, показавшие что при определенном минимуме ошибки обучения достигался относительный минимум ошибки на тестовых данных.

Два других подхода для контроля переобучения предусматривают постепенное изменение структуры сети. Только в одном случае происходит эффективное вымывание малых весов weight elimination, т.е. прореживание малозначительных связей, а во втором, напротив, поэтапное наращивание сложности сети. 3,4,5 . 6.6

– Конец работы –

Эта тема принадлежит разделу:

Классификация сейсмических сигналов на основе нейросетевых технологий

Существуют задачи, решение которых просто невозможно аналитическими методами, а нейросети успешно с ними справляются. Даже в том случае, если можно… В данном дипломе рассматривается задача, возникающая при сейсмическом… Несмотря на то, что для ее решения, в настоящее время успешно применяются методы статистического анализа, …

Если Вам нужно дополнительный материал на эту тему, или Вы не нашли то, что искали, рекомендуем воспользоваться поиском по нашей базе работ: Алгоритм обучения и методы его оптимизации

Что будем делать с полученным материалом:

Если этот материал оказался полезным ля Вас, Вы можете сохранить его на свою страничку в социальных сетях:

Все темы данного раздела:

Основные положения теории нейронных сетей
Основные положения теории нейронных сетей. Для того, чтобы обсуждать возможности нейросетевых технологий, необходимо хотя бы немного иметь представление об элементарных понятиях, о том, что же тако

Постановка задачи классификации сейсмических сигналов
Постановка задачи классификации сейсмических сигналов. Международная система мониторинга МСМ , сформировавшаяся в мире за последние десятилетия, предназначена для наблюдения за сейсмически активным

Выделение информационных признаков из сейсмограмм
Выделение информационных признаков из сейсмограмм. Исходные данные представлены в виде сейсмограмм рис. 3.1 - это временное отображение колебаний земной поверхности. В таком виде анализирова

Отбор наиболее информативных признаков для идентификации
Отбор наиболее информативных признаков для идентификации. Как было показано выше, в сейсмограмме анализируемого события можно выделить достаточно много различных характеристик, однако, далеко не вс

Оценка вероятности ошибочной классификации методом скользящего экзамена
Оценка вероятности ошибочной классификации методом скользящего экзамена. Оценивание вероятности ошибочной идентификации типа событий землетрясение-взрыв, в каждом конкретном регионе представляет со

Нейрон-классификатор
Нейрон-классификатор. получал на свои входы уже линейно-разделимые множества. Такие структуры носят название многослойные персептроны 1-4,7,10 рис. 1.3 . Легко показать, что, в принципе, все

Методы предварительной обработки данных
Методы предварительной обработки данных. Если возникает необходимость использовать нейросетевые методы для решения конкретных задач, то первое с чем приходится сталкиваться - это подготовка данных.

Максимизация энтропии как цель предобработки
Максимизация энтропии как цель предобработки. Рассмотрим основной руководящий принцип, общий для всех этапов предобработки данных. Допустим, что в исходные данные представлены в числовой фор

Реализация нейросетевой модели и исследование ее технических характеристик
Реализация нейросетевой модели и исследование ее технических характеристик. Ранее было показано, какими средствами нейроинформатики можно пытаться решить задачу идентификации типа сейсмического ист

Выбор начальных весовых коэффициентов
Выбор начальных весовых коэффициентов. Перед тем, как приступить к обучению нейронной сети, необходимо задать ее начальное состояние. От того насколько удачно будут выбраны начальные значения весов

Формирование обучающей выборки и оценка эффективности обученной нейросетевой модели
Формирование обучающей выборки и оценка эффективности обученной нейросетевой модели. Из исходных данных необходимо сформировать как минимум две выборки - обучающую и проверочную. Обучающая в

Функциональные возможности программы
Функциональные возможности программы. В программе nvclass. с - нейро-классификатор векторов данных реализована модель двухслойного персептрона, представленная в разделе 6. Эта программа пред

Общие сведения
Общие сведения. Программный пакет предназначенный для идентификации типа сейсмического события включает следующие модули Исходный код программы nvclass. c и nvclass. h Файл с настройками режима раб

Описание входного файла с исходными данными
Описание входного файла с исходными данными. В качестве исходных данных используется отформатированный текстовый файл, в котором хранится информация о размерности векторов, их количестве и с

Описание файла настроек
Описание файла настроек. Параметры настройки программы содержаться во входном файле nvclass. inp. Пример файла приведен в приложении 3. Для настройки используются следующие переменные TYPE -

Эксплуатация программного продукта
Эксплуатация программного продукта. Перед тем, как приступить к эксплуатации программного продукта рекомендуется ознакомиться с форматом данных, в котором должны быть записаны исходная выбор

Результат работы программы
Результат работы программы. Для исследований возможностей разработанного программного обеспечения были проведены различные эксперименты, основная цель которых - подобрать значения параметров

Пример файла с векторами признаков
Пример файла с векторами признаков. Представлена выборка из файла 9 Norv. txt, содержащего 9 размерные вектора признаков. NumOfPattern 86 PatternDimens 9 1 -14.3104 -13.2561 -13.4705 -13.430

Файл с настройками программы
Файл с настройками программы. Common parameters for programm NVCLASS 1 1 - OnlyTest mode, 1 2 - TestAfterLearn mode, 2 1 - CheckOneVector, 2 2 - CrossValidation mode. TYPE 2 2 NDATA 9 NPATTERN 86 P

Пример файла отчета
Пример файла отчета. NVCLASS report - Wed Jun 02 15 58 02 1999 Type 1 2 Neural Net - 18,12,1 PatternFile - vect. txt Test Vector s - vector. tst ResNetFname - 12. net LearnTolerance 0.10 Ini

Хотите получать на электронную почту самые свежие новости?
Education Insider Sample
Подпишитесь на Нашу рассылку
Наша политика приватности обеспечивает 100% безопасность и анонимность Ваших E-Mail
Реклама
Соответствующий теме материал
  • Похожее
  • Популярное
  • Облако тегов
  • Здесь
  • Временно
  • Пусто
Теги