рефераты конспекты курсовые дипломные лекции шпоры

Реферат Курсовая Конспект

Вторая итерация

Вторая итерация - раздел Науковедение, МЕТОДИЧЕСКИЕ УКАЗАНИЯ К КУРСОВОЙ РАБОТЕ ПО ДИСЦИПЛИНЕ СИСТЕМЫ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА Для Второй Итерации В Качестве Начального Значения Векто...

Для второй итерации в качестве начального значения вектора весовых коэффициентов используется значение, полученное на конечном шаге первой итерации.

5.12. Выполняются пункты 5.2 – 5.11. Если по результатам второй ите-рации не достигается выполнения условия непревышения предельно допус-тимых ошибок обучения, проводится третья итерация и так до тех пор, пока на будет выполнено условие непревышения ошибок обучения для всех воз-можных входных векторов. По достижении этого условия обучение выбран-ного нейрона заканчивается.

6. Выбирается следующий нейронный элемент и сигнал, на который этот элемент должен быть настроен.

7. Выполняются п.п. 4 – 12 для обучения выбранного нейронного элемента.

8. Выполняются п.п. 6.- 7 для обучения всех нейронных элементов сети.

9. Путем подачи на вход сети всех распознаваемых образов подтверждается единичная реакция каждого нейронного элемента только на входной сигнал, соответствующий образу, распознаваемым данным элемен-том. В случае ошибочного решения, принимаемого сетью, выполнить про-верку правильности приведения расчетов, выполняемых при проектирова-нии.

 

6.2.4. Пример. Выполнить проектирование сети, предназначенной для распознавания двух образов, при условии, что на входе сети кроме распоз-наваемых объектов может присутствовать и мешающий образ.

 

1. Проводится анализ задания на проектирование. Выполняется кодиро-вание (при необходимости) входной информации. Определяется размерность входного вектора и необходимое для решения задачи распознавания число нейронов.

Представим распознаваемые образы и мешающий образ в виде кодиро-ванных последовательностей, в которых единицей будем кодировать заштри-хованные квадратики, а нулем – незаштрихованные. В соответствии с вы-бранным типом кодирования образы могут быть представлены кодами:

распознаваемые объекты – 1100 и 1010, мешающий объект – 1001 (выбор порядка кодирования произволен, но одинаков для всех образов).

Так как размерность кодов во всех случаях одинакова и равна 4, то раз-мерность входного вектора принимается равной 4. В связи с тем, что число распознаваемых полезных образов равно 2, то число нейронов в сети выбира-ется равным 2.

2. Разрабатывается структурная схема нейронной сети. Осуществляется закрепление каждого из нейронов за распознаваемым образом.

 

Рис. 7

Будем считать, что первый нейрон должен обеспечить распознавание первого образа, а второй – второго.

3. Выбирается правило расчета весовых коэффициентов.

Расчет вектора весовых коэффициентов в процессе обучения производится в соответствии с выражением

где - рассчитываемое значение вектора весовых коэффициентов на к-том шаге, - значение вектора весовых коэффициентов, полученное на предыдущем шаге, - корректирующее слагаемое, получаемое в соответствии с выражением

где ……….(расписать входящие обозначения)

4. Выполним выбор параметров первого нейронного элемента.

Примем значение коэффициента обучения h=0,6.

Пороговое значение θ1=2, так как число единиц в коде, соответству-ющем первому образу равно 2.

Определим желаемые реакции первого нейрона на полезный образ и мешающие для него образы как

t´´1жел пол (1) = θ1 +

и t´´1жел меш (2,3) = θ1 -∆.

Выберем ∆= 0,5 (так как само значение θ1 небольшое).

Тогда t´´1жел пол (1)=2,5, а t´´1жел меш (2,3) = 1,5.

– Конец работы –

Эта тема принадлежит разделу:

МЕТОДИЧЕСКИЕ УКАЗАНИЯ К КУРСОВОЙ РАБОТЕ ПО ДИСЦИПЛИНЕ СИСТЕМЫ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА

ОДЕССКИЙ НАЦИОНАЛЬНЫЙ ПОЛИТЕХНИЧЕСКИЙ УНИВЕРСИТЕТ...

Если Вам нужно дополнительный материал на эту тему, или Вы не нашли то, что искали, рекомендуем воспользоваться поиском по нашей базе работ: Вторая итерация

Что будем делать с полученным материалом:

Если этот материал оказался полезным ля Вас, Вы можете сохранить его на свою страничку в социальных сетях:

Все темы данного раздела:

Одесса ОНПУ 2011
    Методические указания к курсовому проектированию по дисциплине "Системы искусственного интеллекта" для студентов института радио-электроники и тел

График выполнения работы
В результате выполнения работы студент должен выполнить проектирование искусственной нейронной сети каждого из указанных типов, включая - разработку структуры проектируемой сети;

Пояснительная записка к курсовой работе должна содержать
- титульный лист - задание на проектирование; - реферат; - содержание; - основная часть; - перечень используемой литературы; - необходимые прил

Первая итерация
5.1. Задают начальное значение вектора весовых коэффициентов (ком-понент вектора) выбранного нейрона. Как правило на первом шаге значени-ям компонент весового вектора присваивают небольшие случайны

Максимально допустимые ошибки обучения δmax пол и δmax меш примем равными 0,1.
5. Расчет вектора весовых коэффициентов первого нейронного элемен-та. 5.1. Зададим следующие начальные значения компонент вектора весо-вых коэффициентов: w11=0,3; w

Net´1(1)=0,3•1+0,6•1+0,5•0+0,8•0=0,9
5.4. Определяем ошибку обучения в соответствии с выражением. где

Net´1(2)=1,26•1+1,56•0+0,5•1+0,8•0=1,76
  5.8. Определяем ошибку обучения в соответствии с выражением

Net´1(3)=1,104•1+1,56•0+0,344•0+0,8•1=1,904
  5.12. Определяем ошибку обучения в соответствии с выражением

Net´1(1)=0,862•1+1,56•1+0,344•0+0,558•0=2,422
5.16. Определяем ошибку обучения в соответствии с выражением. где

Net´1(2)=0,862•1+1,56•0+0,344•1+0,558•0=1,206
  5.20. Определяем ошибку обучения в соответствии с выражением

Net´1(3)=1,038•1+1,56•0+0,52•0+0,558•1=1,596
  5.24. Определяем ошибку обучения в соответствии с выражением

Слои Кохоненна
В своей простейшей форме слой Кохонена функционирует в духе «победи-тель забирает все», т. е. для данного входного вектора один и только один нейрон Кохонена выдает на выходе логическую единицу, вс

Слой Гроссберга
Слой Гроссберга функционирует в сходной манере. Его выход net является взвешенной суммой выходов k1,k2, ..., kn слоя Кохонена, образующих ве

ОБУЧЕНИЕ СЛОЯ КОХОНЕНА
Слой Кохонена классифицирует входные векторы в группы схожих. Это достигается с помощью такой подстройки весов слоя Кохонена, что близкие входные векторы активируют один и тот же нейрон данного сло

Предварительная обработка входных векторов
Весьма желательно (хотя и не обязательно) нормализовать входные векторы перед тем, как предъявлять их сети. Это выполняется с помощью деления каждой компоненты входного вектора на длину вектора. Эт

Выбор начальных значений весовых векторов
Всем весам сети перед началом обучения следует придать начальные зна-чения. Общепринятой практикой при работе с нейронными сетями является присваивание весам небольших случайных значений. При обуче

ОБУЧЕНИЕ СЛОЯ ГРОССБЕРГА
Слой Гроссберга обучается относительно просто. Входной вектор, явля-ющийся выходом слоя Кохонена, подается на слой нейронов Гроссберга, и выходы слоя Гроссберга вычисляются, как при нормальном функ

При проектировании сети данного типа необходимо выполнить две итерации расчета коэффициентов
Ход проектирования искусственной нейронной сети встречного распространения производится в соответствии со следующими этапами: 1. Проводится анализ задания на проектирование. Выполняется ко

V12=1; v22=0; v32=0; v42=1.
Если привязать эти коэффициенты к нейронам слоя Гроссберга, то соот-ветственно вектора весовых коэффициентов каждого нейрона Гроссберга когут бать представлены в виде: V1T

Хотите получать на электронную почту самые свежие новости?
Education Insider Sample
Подпишитесь на Нашу рассылку
Наша политика приватности обеспечивает 100% безопасность и анонимность Ваших E-Mail
Реклама
Соответствующий теме материал
  • Похожее
  • Популярное
  • Облако тегов
  • Здесь
  • Временно
  • Пусто
Теги