Net´1(2)=0,862•1+1,56•0+0,344•1+0,558•0=1,206 - раздел Науковедение, МЕТОДИЧЕСКИЕ УКАЗАНИЯ К КУРСОВОЙ РАБОТЕ ПО ДИСЦИПЛИНЕ СИСТЕМЫ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА
5.20. Определяем Ошибку Обучения В Соответствии С Выражением...
5.20. Определяем ошибку обучения в соответствии с выражением
где = t´´1жел меш (2) = 1,5.
С учетом этого =1,5-1,206=0,294.
5.21. Полученное значение ошибки обучения больше, чем
δmaxмеш =0,1. Поэтому выполним коррекцию вектора весовых коэффици-ентов в соответствии с выражением
где
Тогда
5.22. На вход сети подается сигнал, характеризующий третий (мешаю-щий) образ, код которого равен 1001.
5.23. С учетом скорректированного значения весового вектора для третьего сигнала определяется сетевая функция
net´1(3)= ,
где в качестве текущих значений составляющих весового вектора
выбираются их скорректированные ранее в пункте 5.9 значения.
ОДЕССКИЙ НАЦИОНАЛЬНЫЙ ПОЛИТЕХНИЧЕСКИЙ УНИВЕРСИТЕТ...
Если Вам нужно дополнительный материал на эту тему, или Вы не нашли то, что искали, рекомендуем воспользоваться поиском по нашей базе работ:
Net´1(2)=0,862•1+1,56•0+0,344•1+0,558•0=1,206
Что будем делать с полученным материалом:
Если этот материал оказался полезным ля Вас, Вы можете сохранить его на свою страничку в социальных сетях:
Одесса ОНПУ 2011
Методические указания к курсовому проектированию по дисциплине
"Системы искусственного интеллекта" для студентов института радио-электроники и тел
График выполнения работы
В результате выполнения работы студент должен выполнить проектирование искусственной нейронной сети каждого из указанных типов, включая
- разработку структуры проектируемой сети;
Первая итерация
5.1. Задают начальное значение вектора весовых коэффициентов (ком-понент вектора) выбранного нейрона. Как правило на первом шаге значени-ям компонент весового вектора присваивают небольшие случайны
Вторая итерация
Для второй итерации в качестве начального значения вектора весовых коэффициентов используется значение, полученное на конечном шаге первой итерации.
5.12. Выполняются
Слои Кохоненна
В своей простейшей форме слой Кохонена функционирует в духе «победи-тель забирает все», т. е. для данного входного вектора один и только один нейрон Кохонена выдает на выходе логическую единицу, вс
Слой Гроссберга
Слой Гроссберга функционирует в сходной манере. Его выход net является взвешенной суммой выходов k1,k2, ..., kn слоя Кохонена, образующих ве
ОБУЧЕНИЕ СЛОЯ КОХОНЕНА
Слой Кохонена классифицирует входные векторы в группы схожих. Это достигается с помощью такой подстройки весов слоя Кохонена, что близкие входные векторы активируют один и тот же нейрон данного сло
Предварительная обработка входных векторов
Весьма желательно (хотя и не обязательно) нормализовать входные векторы перед тем, как предъявлять их сети. Это выполняется с помощью деления каждой компоненты входного вектора на длину вектора. Эт
Выбор начальных значений весовых векторов
Всем весам сети перед началом обучения следует придать начальные зна-чения. Общепринятой практикой при работе с нейронными сетями является присваивание весам небольших случайных значений. При обуче
ОБУЧЕНИЕ СЛОЯ ГРОССБЕРГА
Слой Гроссберга обучается относительно просто. Входной вектор, явля-ющийся выходом слоя Кохонена, подается на слой нейронов Гроссберга, и выходы слоя Гроссберга вычисляются, как при нормальном функ
V12=1; v22=0; v32=0; v42=1.
Если привязать эти коэффициенты к нейронам слоя Гроссберга, то соот-ветственно вектора весовых коэффициентов каждого нейрона Гроссберга когут бать представлены в виде:
V1T
Хотите получать на электронную почту самые свежие новости?
Подпишитесь на Нашу рассылку
Наша политика приватности обеспечивает 100% безопасность и анонимность Ваших E-Mail
Новости и инфо для студентов