рефераты конспекты курсовые дипломные лекции шпоры

Реферат Курсовая Конспект

V12=1; v22=0; v32=0; v42=1.

V12=1; v22=0; v32=0; v42=1. - раздел Науковедение, МЕТОДИЧЕСКИЕ УКАЗАНИЯ К КУРСОВОЙ РАБОТЕ ПО ДИСЦИПЛИНЕ СИСТЕМЫ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА Если Привязать Эти Коэффициенты К Нейронам Слоя Гроссберга, То Соот-Ветственн...

Если привязать эти коэффициенты к нейронам слоя Гроссберга, то соот-ветственно вектора весовых коэффициентов каждого нейрона Гроссберга когут бать представлены в виде:

V1T = (v11, v12) = (0, 1); V2T = (v21, v22) = (1, 0); V3T = (v31, v32) = (1, 0);

V4T = (v41, v42) = (0, 1).

Так как на выходе сумматоров нейронов слоя Гроссберга могут быть только 1 или 0, то в качестве пороговых значений θiнеобходимо выбрать величину, большую нуля, но меньше, чем удиница. Например, 0,5.

Выполняется проверка работы сети путем подачи на вход всех сигналов обоих групп и определения совпадений полученных сигналов с ассоциированными.

 

6.4. Задание 3. Линейная ассоциативная память

6.4.1. Общие сведения

Известны два способа доступа к информации, хранящейся в запомина-ющем устройстве: адресный и ассоциативный. Адресный способ характери-зуется тем, что ис­комая информация жестко задана адресом - местом ее рас-положения в па­мяти. Ассоциативный способ доступа к информации основан на установ­лении соответствия (ассоциации) между хранимой в памяти ин-формацией и поисковыми признаками. Содержимое ассоциативной памяти можно представить в виде множества пар

 

(34)

где - входные векторы, задающие значения поиско-вых при­знаков образов; - выходные векторы, соответст-вующие извле­каемым образам.

Выделяют два основных типа ассоциативной памяти: гетероассоциативную и автоассоциативную. В первом случае входному вектору X , который "достаточно близок" "к вектору X(μ), хранимому в памяти, ставится в соответствие выходной век­тор Y(μ), где μ =1,2,…,p. Во втором случае X(μ)= Y(μ), для всех пар из (34). Поэтому при подаче на вход запоминающего устройства вектора X, "дос­таточно близкого" к вектору X(μ), на выходе формируется вектор X(μ).

Можно сказать, что ассоциативная память выполняет отображение об-разов входного пространства в выходное пространство. В случае автоас­со-циативной памяти размерности входного и выходного пространств сов­пада-ют, в случае гетероассоциативной памяти размерности указанных прост-ранств различные.

Структурная схема линейной ассоциативной памяти (ЛАП) изобра­жена на рисунке 10.

 

 

Рис. 10. Линейная ассоциативная память

 

ЛАП представляет собой однослойную ШНМ с прямыми связями. Веса связей в такой сети являются фиксированными. Они вычисляются на этапе подготовки сети к работе. Цель функциониро­вания сети заключается в вос-становлении выходного образа на основе полной или неполной входной ин-формации. Входные и выходные значе­ния сети могут быть либо веществен-ными, либо бинарными. Число нейронов ЛАП определяется размерностью выходного вектора.

Матрица весов связей сети соответствует корреляционной матрице, устанавливающей взаимосвязь входных и выходных образов сети

 

(35)

где - внешнее векторное произведение, определяемое как произведение вектор-столбца на вектор-строку.

Если входные и выходные векторы являются униполярными бинарными векторами со значениями 0 и 1, то матрица весов связей определяется выражением

, (36)

где yi(μ) и xj(μ)n – соответственно i– тая и j – тая компоненты μ – того выходного и входного векторов. В этой формуле автоматически учитывается среднее значение двоичного признака, равное 0,5. Для того, чтобы сформиро-вать бинарный выходной вектор, каждый выходной НЭ сети сравнивает компоненты вектора с порогом

. (37)

Если

, (38)

То соответствующий НЭ формирует yi = 1, в ином случае yi = 0.

 

6.4.2. Проектирование линейной ассоциативной памяти

 

Ход проектирования линейной ассоциативной памяти производится в соответствии со следующими этапами:

1. Проводится анализ задания на проектирование. Выполняется коди-рование (при необходимости) входной информации. Определяется размер-ность входного вектора и выходного вектора. Определяется число нейронов сети.

2. Разрабатывается структурная схема линейной ассоциативной памяти.

3. В соответствии с выражением (36) определяются весовые коэффици-енты .

4. В соответствии с выражением (37) определяются пороговые значения .

5. Осуществляется проверка правильности работы сети.

– Конец работы –

Эта тема принадлежит разделу:

МЕТОДИЧЕСКИЕ УКАЗАНИЯ К КУРСОВОЙ РАБОТЕ ПО ДИСЦИПЛИНЕ СИСТЕМЫ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА

ОДЕССКИЙ НАЦИОНАЛЬНЫЙ ПОЛИТЕХНИЧЕСКИЙ УНИВЕРСИТЕТ...

Если Вам нужно дополнительный материал на эту тему, или Вы не нашли то, что искали, рекомендуем воспользоваться поиском по нашей базе работ: V12=1; v22=0; v32=0; v42=1.

Что будем делать с полученным материалом:

Если этот материал оказался полезным ля Вас, Вы можете сохранить его на свою страничку в социальных сетях:

Все темы данного раздела:

Одесса ОНПУ 2011
    Методические указания к курсовому проектированию по дисциплине "Системы искусственного интеллекта" для студентов института радио-электроники и тел

График выполнения работы
В результате выполнения работы студент должен выполнить проектирование искусственной нейронной сети каждого из указанных типов, включая - разработку структуры проектируемой сети;

Пояснительная записка к курсовой работе должна содержать
- титульный лист - задание на проектирование; - реферат; - содержание; - основная часть; - перечень используемой литературы; - необходимые прил

Первая итерация
5.1. Задают начальное значение вектора весовых коэффициентов (ком-понент вектора) выбранного нейрона. Как правило на первом шаге значени-ям компонент весового вектора присваивают небольшие случайны

Вторая итерация
Для второй итерации в качестве начального значения вектора весовых коэффициентов используется значение, полученное на конечном шаге первой итерации. 5.12. Выполняются

Максимально допустимые ошибки обучения δmax пол и δmax меш примем равными 0,1.
5. Расчет вектора весовых коэффициентов первого нейронного элемен-та. 5.1. Зададим следующие начальные значения компонент вектора весо-вых коэффициентов: w11=0,3; w

Net´1(1)=0,3•1+0,6•1+0,5•0+0,8•0=0,9
5.4. Определяем ошибку обучения в соответствии с выражением. где

Net´1(2)=1,26•1+1,56•0+0,5•1+0,8•0=1,76
  5.8. Определяем ошибку обучения в соответствии с выражением

Net´1(3)=1,104•1+1,56•0+0,344•0+0,8•1=1,904
  5.12. Определяем ошибку обучения в соответствии с выражением

Net´1(1)=0,862•1+1,56•1+0,344•0+0,558•0=2,422
5.16. Определяем ошибку обучения в соответствии с выражением. где

Net´1(2)=0,862•1+1,56•0+0,344•1+0,558•0=1,206
  5.20. Определяем ошибку обучения в соответствии с выражением

Net´1(3)=1,038•1+1,56•0+0,52•0+0,558•1=1,596
  5.24. Определяем ошибку обучения в соответствии с выражением

Слои Кохоненна
В своей простейшей форме слой Кохонена функционирует в духе «победи-тель забирает все», т. е. для данного входного вектора один и только один нейрон Кохонена выдает на выходе логическую единицу, вс

Слой Гроссберга
Слой Гроссберга функционирует в сходной манере. Его выход net является взвешенной суммой выходов k1,k2, ..., kn слоя Кохонена, образующих ве

ОБУЧЕНИЕ СЛОЯ КОХОНЕНА
Слой Кохонена классифицирует входные векторы в группы схожих. Это достигается с помощью такой подстройки весов слоя Кохонена, что близкие входные векторы активируют один и тот же нейрон данного сло

Предварительная обработка входных векторов
Весьма желательно (хотя и не обязательно) нормализовать входные векторы перед тем, как предъявлять их сети. Это выполняется с помощью деления каждой компоненты входного вектора на длину вектора. Эт

Выбор начальных значений весовых векторов
Всем весам сети перед началом обучения следует придать начальные зна-чения. Общепринятой практикой при работе с нейронными сетями является присваивание весам небольших случайных значений. При обуче

ОБУЧЕНИЕ СЛОЯ ГРОССБЕРГА
Слой Гроссберга обучается относительно просто. Входной вектор, явля-ющийся выходом слоя Кохонена, подается на слой нейронов Гроссберга, и выходы слоя Гроссберга вычисляются, как при нормальном функ

При проектировании сети данного типа необходимо выполнить две итерации расчета коэффициентов
Ход проектирования искусственной нейронной сети встречного распространения производится в соответствии со следующими этапами: 1. Проводится анализ задания на проектирование. Выполняется ко

Хотите получать на электронную почту самые свежие новости?
Education Insider Sample
Подпишитесь на Нашу рассылку
Наша политика приватности обеспечивает 100% безопасность и анонимность Ваших E-Mail
Реклама
Соответствующий теме материал
  • Похожее
  • Популярное
  • Облако тегов
  • Здесь
  • Временно
  • Пусто
Теги