Net´1(3)=1,038•1+1,56•0+0,52•0+0,558•1=1,596 - раздел Науковедение, МЕТОДИЧЕСКИЕ УКАЗАНИЯ К КУРСОВОЙ РАБОТЕ ПО ДИСЦИПЛИНЕ СИСТЕМЫ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА
5.24. Определяем Ошибку Обучения В Соответствии С Выражением...
5.24. Определяем ошибку обучения в соответствии с выражением
где = t´´1жел меш (2) = 1,5.
С учетом этого =1,5-1,596=-0,096.
5.25. Полученное значение ошибки обучения меньше, чем
δmaxмеш =0,1. Поэтому значение вектора весовых коэффициентов не изме-няем.
Так как на одном из шагов не было достигнуто выполнение условия непревышения получаемой ошибки обучения предельно допустимой, пере-ходим к третьей итерации.
5.26.Процесс продолжается до тех пор, пока для всех сигналов ошибки обучения не будут превышать максимально допустимые ошибки.
5.27. После окончания процесса обучения первого нейрона переходим к обучению второго нейрона. Этот процесс полностью аналогичен процессу обучения первого нейронного элемента за исключением того, что полезным для него считается уже второй сигнал, а первый выступает уже в качестве мешающего наряду с третьим сигналом. В соответствии с этим изменяются и желаемые результаты, то есть
t´´2жел пол (2) = θ2 +∆,
t´´2жел меш (1,3) = θ2 -∆.
и при θ2=2 и∆= 0,5
t´´2жел пол (2) = 2,5,
t´´2жел меш (1,3) = 1,5.
5.28. После окончания определения векторов весовых коэффициентов для обоих нейронных элементов производим проверку правильности работы сети путем подачи на её вход всех распознаваемых образов и удостоверяем-ся, что единичная реакция каждого элемента наблюдается только в том слу-чае, когда на входе сети присутствует сигнал, для распознавания которого обучался данный нейрон.
ОДЕССКИЙ НАЦИОНАЛЬНЫЙ ПОЛИТЕХНИЧЕСКИЙ УНИВЕРСИТЕТ...
Если Вам нужно дополнительный материал на эту тему, или Вы не нашли то, что искали, рекомендуем воспользоваться поиском по нашей базе работ:
Net´1(3)=1,038•1+1,56•0+0,52•0+0,558•1=1,596
Что будем делать с полученным материалом:
Если этот материал оказался полезным ля Вас, Вы можете сохранить его на свою страничку в социальных сетях:
Одесса ОНПУ 2011
Методические указания к курсовому проектированию по дисциплине
"Системы искусственного интеллекта" для студентов института радио-электроники и тел
График выполнения работы
В результате выполнения работы студент должен выполнить проектирование искусственной нейронной сети каждого из указанных типов, включая
- разработку структуры проектируемой сети;
Первая итерация
5.1. Задают начальное значение вектора весовых коэффициентов (ком-понент вектора) выбранного нейрона. Как правило на первом шаге значени-ям компонент весового вектора присваивают небольшие случайны
Вторая итерация
Для второй итерации в качестве начального значения вектора весовых коэффициентов используется значение, полученное на конечном шаге первой итерации.
5.12. Выполняются
Слои Кохоненна
В своей простейшей форме слой Кохонена функционирует в духе «победи-тель забирает все», т. е. для данного входного вектора один и только один нейрон Кохонена выдает на выходе логическую единицу, вс
Слой Гроссберга
Слой Гроссберга функционирует в сходной манере. Его выход net является взвешенной суммой выходов k1,k2, ..., kn слоя Кохонена, образующих ве
ОБУЧЕНИЕ СЛОЯ КОХОНЕНА
Слой Кохонена классифицирует входные векторы в группы схожих. Это достигается с помощью такой подстройки весов слоя Кохонена, что близкие входные векторы активируют один и тот же нейрон данного сло
Предварительная обработка входных векторов
Весьма желательно (хотя и не обязательно) нормализовать входные векторы перед тем, как предъявлять их сети. Это выполняется с помощью деления каждой компоненты входного вектора на длину вектора. Эт
Выбор начальных значений весовых векторов
Всем весам сети перед началом обучения следует придать начальные зна-чения. Общепринятой практикой при работе с нейронными сетями является присваивание весам небольших случайных значений. При обуче
ОБУЧЕНИЕ СЛОЯ ГРОССБЕРГА
Слой Гроссберга обучается относительно просто. Входной вектор, явля-ющийся выходом слоя Кохонена, подается на слой нейронов Гроссберга, и выходы слоя Гроссберга вычисляются, как при нормальном функ
V12=1; v22=0; v32=0; v42=1.
Если привязать эти коэффициенты к нейронам слоя Гроссберга, то соот-ветственно вектора весовых коэффициентов каждого нейрона Гроссберга когут бать представлены в виде:
V1T
Хотите получать на электронную почту самые свежие новости?
Подпишитесь на Нашу рассылку
Наша политика приватности обеспечивает 100% безопасность и анонимность Ваших E-Mail
Новости и инфо для студентов