V12=1; v22=0; v32=0; v42=1.

Если привязать эти коэффициенты к нейронам слоя Гроссберга, то соот-ветственно вектора весовых коэффициентов каждого нейрона Гроссберга когут бать представлены в виде:

V1T = (v11, v12) = (0, 1); V2T = (v21, v22) = (1, 0); V3T = (v31, v32) = (1, 0);

V4T = (v41, v42) = (0, 1).

Так как на выходе сумматоров нейронов слоя Гроссберга могут быть только 1 или 0, то в качестве пороговых значений θiнеобходимо выбрать величину, большую нуля, но меньше, чем удиница. Например, 0,5.

Выполняется проверка работы сети путем подачи на вход всех сигналов обоих групп и определения совпадений полученных сигналов с ассоциированными.

 

6.4. Задание 3. Линейная ассоциативная память

6.4.1. Общие сведения

Известны два способа доступа к информации, хранящейся в запомина-ющем устройстве: адресный и ассоциативный. Адресный способ характери-зуется тем, что ис­комая информация жестко задана адресом - местом ее рас-положения в па­мяти. Ассоциативный способ доступа к информации основан на установ­лении соответствия (ассоциации) между хранимой в памяти ин-формацией и поисковыми признаками. Содержимое ассоциативной памяти можно представить в виде множества пар

 

(34)

где - входные векторы, задающие значения поиско-вых при­знаков образов; - выходные векторы, соответст-вующие извле­каемым образам.

Выделяют два основных типа ассоциативной памяти: гетероассоциативную и автоассоциативную. В первом случае входному вектору X , который "достаточно близок" "к вектору X(μ), хранимому в памяти, ставится в соответствие выходной век­тор Y(μ), где μ =1,2,…,p. Во втором случае X(μ)= Y(μ), для всех пар из (34). Поэтому при подаче на вход запоминающего устройства вектора X, "дос­таточно близкого" к вектору X(μ), на выходе формируется вектор X(μ).

Можно сказать, что ассоциативная память выполняет отображение об-разов входного пространства в выходное пространство. В случае автоас­со-циативной памяти размерности входного и выходного пространств сов­пада-ют, в случае гетероассоциативной памяти размерности указанных прост-ранств различные.

Структурная схема линейной ассоциативной памяти (ЛАП) изобра­жена на рисунке 10.

 

 

Рис. 10. Линейная ассоциативная память

 

ЛАП представляет собой однослойную ШНМ с прямыми связями. Веса связей в такой сети являются фиксированными. Они вычисляются на этапе подготовки сети к работе. Цель функциониро­вания сети заключается в вос-становлении выходного образа на основе полной или неполной входной ин-формации. Входные и выходные значе­ния сети могут быть либо веществен-ными, либо бинарными. Число нейронов ЛАП определяется размерностью выходного вектора.

Матрица весов связей сети соответствует корреляционной матрице, устанавливающей взаимосвязь входных и выходных образов сети

 

(35)

где - внешнее векторное произведение, определяемое как произведение вектор-столбца на вектор-строку.

Если входные и выходные векторы являются униполярными бинарными векторами со значениями 0 и 1, то матрица весов связей определяется выражением

, (36)

где yi(μ) и xj(μ)n – соответственно i– тая и j – тая компоненты μ – того выходного и входного векторов. В этой формуле автоматически учитывается среднее значение двоичного признака, равное 0,5. Для того, чтобы сформиро-вать бинарный выходной вектор, каждый выходной НЭ сети сравнивает компоненты вектора с порогом

. (37)

Если

, (38)

То соответствующий НЭ формирует yi = 1, в ином случае yi = 0.

 

6.4.2. Проектирование линейной ассоциативной памяти

 

Ход проектирования линейной ассоциативной памяти производится в соответствии со следующими этапами:

1. Проводится анализ задания на проектирование. Выполняется коди-рование (при необходимости) входной информации. Определяется размер-ность входного вектора и выходного вектора. Определяется число нейронов сети.

2. Разрабатывается структурная схема линейной ассоциативной памяти.

3. В соответствии с выражением (36) определяются весовые коэффици-енты .

4. В соответствии с выражением (37) определяются пороговые значения .

5. Осуществляется проверка правильности работы сети.