В контексте решаемой задачи

 

В общем случае искусственная нейросеть не является универсальной по своей структуре. Для ряда прикладных задач существует множество различных структур реализации, алгоритмов, методов обучения и т.п., описанных, например, в [28, 57] и других изданиях. Манипулируя этими различными видами, можно получить, в конечном итоге, НС с оптимальными свойствами и параметрами. Наибольшее использование для решения задач распознавания образов находят следующие нейросетевые методы: нейросетевой гауссов классификатор (Neural Gaussian Classifier), Сеть Хопфилда (hopfield net), Сеть Хемминга (hamming net), Сеть Кохонена (kohonen's neural network), Сеть поиска максимума, Классификатор Карпентера/Гроссберга, Сеть встречного распространения (counterpropagation network), Сеть поиска максимума с прямыми связями (Feed-forward maxnet), Входная звезда (instar).

При выборе структуры нейросети для построения мониторинга качества формообразования необходимо решить ряд задач. В связи с разделением системы анализа параметров качества на несколько уровней (ввода/вывода, уровень распознавания, уровень синтеза), применение в создаваемом программном комплексе какого-то определенного вида НС и алгоритма обучения не представляется возможным. Поэтому необходимо использовать несколько различных видов НС с разными выходными параметрами и моделировать нейросеть для каждого уровня, в соответствии с требованиями по обработке информации на нём.

На уровне ввода/вывода происходит выделение из сигнала знакомых системе образцов и представление их одним нейроном или нейронным ансамблем на следующих уровнях. Как при обучении, так и при распознавании входные векторы являются нечеткими, т.е. имеется небольшой разброс векторов, принадлежащих к одному классу. В связи с этим нейросеть, осуществляющая эту операцию, должна обладать определенной способностью к статистическому усреднению. Напротив, может оказаться, что группа векторов находится в непосредственной близости друг к другу, но все они представляют разные классы. Тогда нейросеть должна определять тонкие различия между векторами. Ещё одно требование к нейросети низкого уровня обработки сигнала – способность разделять входные сигналы на классы.

Большое количество нейросетевых алгоритмов выполняют функцию разделения входного сигнала на классы. Известно 3 математических модели этого разделения:

1. Разделение входных сигналов гиперплоскостями (простой персептрон). Применение этого алгоритма оправдано только для задач, обладающих высокой линейностью. Например, можно построить нейросеть, разбивающую точки (0,0) и (1,1) на два класса для двумерного сигнала, но невозможно решить задачу по разбиению точек (0,0), (1,1) – первый класс, и (0,1), (1,0) – второй. Это широко известный пример неспособности простого персептрона решить задачу «исключающее или» или теорему Минского (см. рис. 2.3).

Рис. 2.3. Теорема Минского

2. Разделение входного сигнала гиперповерхностями (многослойные персептроны). При последовательном соединении слоев, подобных простому персептрону, появляется возможность комбинировать гиперплоскости и получать гиперповерхности довольно сложной формы, в том числе и замкнутые. Такая нейросеть в принципе при достаточном числе нейронов способна разделять сигналы на классы практически любой сложности. Но применение таких нейросетей ограничено сложностью их обучения.

3. Поиск наибольшего соответствия (углового или линейного состояния). При нормализованных векторах входного сигнала все они располагаются на поверхности гиперсферы.

Проведенный анализ сетевых структур и исследования ряда алгоритмов, представленных в литературе, определили выбор нейросети встречного распространения, как наиболее подходящей, для применения в системе мониторинга. Такой выбор был сделан по ряду причин.

1. Возможности сети встречного распространения превосходят возможности однослойных сетей. Время обучения по сравнению с обратным распространением может уменьшаться в сто раз.

2. Встречное распространение не столь общо, как обратное распространение, но оно может давать решение в тех приложениях, где долгая обучающая процедура невозможна.

3. Во встречном распространении объединены два хорошо известных алгоритма: самоорганизующаяся карта Кохонена и звезда Гроссберга [104]. Их объединение ведет к свойствам, которых нет ни у одного из них в отдельности. Самоорганизующаяся карта Кохонена выполняет классификацию входных векторов в группы схожих. Задача классификации представляет собой задачу отнесения образца к одному из нескольких попарно не пересекающихся множеств. Примером таких задач является, например, задача определения информативного частотного диапазона при анализе вибросигналов, возникающих в процессе резания. При решении задач классификации необходимо отнести имеющиеся статические образцы (характеристики виброакустического сигнала, например) к определенным классам. Возможно несколько способов представления данных. Наиболее распространенным является способ, при котором образец представляется вектором. Компоненты этого вектора представляют собой различные характеристики образца, которые влияют на принятие решения о том, к какому классу можно отнести данный образец. Например, для целей вибродиагностики в качестве компонентов этого вектора используются данные о частотном составе сигнала.

4. Обобщающая способность сети встречного распространения позволяет получать правильный выход даже при приложении входного вектора, который является неполным или слегка неверным. Также сеть обладает замечательным свойством: успешно обрабатывать зашумленную, искаженную или частично поврежденную информацию.