Рефераты. Волновая резонансная теория

Таким образом, нейрон воспринимает химический сигнал, и реагирует на него повышением или понижением ответов. В этих процессах восприятия химических сигналов и генерации импульсов нейроном важную роль играют перестройки надмолекулярных структур в различных частях данной нервной клетки, а также волны структурных перестроек, сопровождающие передачу информации в пределах данного нейрона и от одного нейрона к другому. Процессы метаболизма (обеспечивающие, в частности, клетку энергией) восстанавливают эти надмолекулярные структуры перестраивающиеся в процессе передачи информации.



2. Основная часть

        

         2.1 Введение


От процесса мышления можно провести аналогию к процессу распознавания. Процесс распознавания образа в нейрокомпьютерах обладает почти всеми свойствами мышления. Действительно:

-        он происходит в нейросетях, у человека - в реальных, в компьютере - в искусственных. Основные принципы функционирования тех и других можно считать одинаковыми;

-        в нем происходит обработка информации;

-        принятие решения в данном случае сводится к выбору класса (из числа обученных), к которому принадлежит данный объект;

1    при недостатке информации принятие решения - акт творчества. Для этого в нейрокомпьютере есть все необходимое, включая аппарат рецепции информации, перемешивающий слой (больцмановский шум) и запоминание результата. Момент принятия решения нейро-процессор умеет выбирать сам. В нейрокомпьютере решение принимается интуитивно;

2    каждый нейрокомпьютер индивидуален. Это проявляется на разных стадиях обучения. Так, локализация образа в процессоре Гроссберга происходит в элементе, выбранном случайно. В исходно одинаковых процессорах эти элементы, как правило, не совпадают. Это немешает работе процессора, но определяет его индивидуальность.

Нейронная сеть представляет собой систему динамически взаимодействующих элементов с набором входных и выходных сигналов. Простейший вариант такого дискретного элемента показан на рис. 7а, где j1 входные функции, Ф (j1, j2, j3,… jn) - семейство входных функций, j1, аj2, аj3, ..., аjn} - набор чисел (весовых коэффициентов), q - пороговая функция, y - выходная функция. Пусть X- набор признаков внешних стимулов, воздействующих на рецепторы, генерирующие входные функции ji. В дискретном пороговом варианте y(Х) = 1 тогда и только тогда, когда Sajiji(Х) > q. На интуитивном уровне ясно, что каждое ji из семейства Ф содержит определенные сведения о том, будет ли истинной или ложной выходная функция y для каждой внешней ситуации X. Если в целом y(Х) имеет положительную корреляцию с семейством j(Х), то можно ожидать, что и веса будут положительными, тогда как при отрицательной корреляции отрицательными будут и веса aj. Однако идею корреляции в данном случае следует воспринимать не буквально, а лишь как аналогию. В нейронных сетях, как будет ясно из дальнейшего изложения, возможны более сложные зависимости, нежели просто корреляционные соотношения. В зависимости от решаемой задачи элементы нейронной сети могут с различной степенью детализации имитировать принципы функционирования отдельных нейронов, нейронных популяций (например, тормозных и возбуждающих) или нейронных структур. В классических нейрофизиологических экспериментах этим уровням детализации соответствуют импульсная активность одиночных нейронов, локальный полевой потенциал нейронных ансамблей и электроэнцефалограммы (ЭЭГ), получаемые методом многоэлектродного отведения от мозга в целом.


Рис7а, б. Простейший вариант нейронной сети (а) и его механическая аналогия (б)

Простейшей механической аналогией вычислений в нейронных сетях являются в одномерном случае "качели с распределенным расположением груза", в двумерном - "скатывание шарика по поверхности, испещренной оврагами". На рисунке 76 в качестве примера показаны "качели". Допустим, что внешняя ситуация X отображена в виде расположения грузов в некоторых зонах {p1, p2 , … , рп}- Пусть ji(X) = 1, когда груз находится в i-й точке. Для случая, изображенного на рис. 76, имеем ai = (i - 4), q = 0, результат вычисления будет: S(i - 4) jI(X) > 0, а логическое заключение о ситуации - "доска наклонится вправо", т.е. при распознавании двух ситуаций, будет выбрана одна.

Мозг человека выполняет трудную задачу обработки непрерывного потока сенсорной информации, получаемой из окружающего мира. Из потока тривиальной информации он должен выделить жизненно важную информацию, обработать ее и, возможно, зарегистрировать в долговременной памяти. Понимание процесса человеческой памяти представляет собой серьезную проблему; новые образы запоминаются в такой форме, что ранее запомненные не модифицируются и не забываются. Это создает дилемму: каким образом память остается пластичной, способной к восприятию новых образов, и в то же время сохраняет стабильность, гарантирующую, что образы не уничтожатся и не разрушатся в процессе функционирования?

Традиционные искусственные нейронные сети оказались не в состоянии решить проблему стабильности-пластичности. Очень часто обучение новому образу уничтожает или изменяет результаты предшествующего обучения. В некоторых случаях это не существенно. Если имеется только фиксированный набор обучающих векторов, они могут предъявляться при обучении циклически. В сетях с обратным распространением, например, обучающие векторы подаются на вход сети последовательно до тех пор, пока сеть не обучится всему входному набору. Если, однако, полностью обученная сеть должна запомнить новый обучающий вектор, он может изменить веса настолько, что потребуется полное переобучение сети.

Итак, основной целью данной работы является создание нейронной сети, являющейся одним из способов решения проблемы стабильности-пластичности.

Одним из результатов исследования этой проблемы является Адаптивная резонансная теория (APT) Гроссберга.


         2.2 Постановка задачи

        

         2.2.1 Неформальная постановка задачи

Создание нейронной сети, которая:

§   распознает входной сигнал, если была ему ранее обучена;

§  в случае не распознавания входного сигнала, запоминает его;

§  совершает эти действия с учетом проблемы стабильности-пластичности. Т.е. при подаче на вход сигнала схожего с одним из запомненных ранее, классифицирует его, как узнанный. Если входной сигнал сильно отличается от запомненных ранее, не уничтожая результаты предыдущего обучения, запоминает его.

Программную реализацию осуществить в среде Matlab.


         2.2.2 Формальная постановка задачи

Введем обозначения:

X - множество входных векторов

X - входной вектор

X = (x1,..,xr )

Ai - нейронный ансамбль

aij - j-й нейрон в i-ом ансамбле

M - множество обученных ансамблей нейронов

B - множество порогов

 B - вектор порогов, соответствующий одному нейронному ансамблю

Bi = [b1,..br]

bi - порог одного нейрона

n - номер первого необученного ансамбля

Ii - выходной импульс i-го нейронного ансамбля

I = {0;1}

Ii = 1 , когда входной сигнал соответствует запомненному в i-м ансамбле образу, или обучен ему

c - командная переменная

c = {0;1}

T - время полного цикла, Т = Т1 + Т2

T1 - время процесса распознавания

T2 - время процесса обучения

Постановка задачи:

Создать нейронную сеть удовлетворяющую теореме:

T:      X :


         2.3 Волновая Резонансная Теория

        

         2.3.1 Описание ВPT

Сеть ВPT - это классификатор кривых. В качестве которых могут выступать звуковые кривые (кривые зависимости интенсивности от времени, спектр звука), синусоиды, и т.д.

Входной вектор является аппроксимацией классифицируемой кривой. Один из способов его получения - это дискретизация величины интенсивности по времени. Он классифицируется в зависимости от того, на какой из множества ранее запомненных образов он похож. Свое классификационное решение сеть ВPT выражает в форме генерации единичного импульса одним из ансамблей распознающего слоя. Если входной вектор не соответствует ни одному из запомненных образов, создается новая категория посредством запоминания образа, идентичного новому входному вектору. Если входной вектор мало отличается от какого-либо из ранее запомненных, то произойдет его распознавание, если хотя бы одна компонента входного вектора сильно (не допустимо) отличается от запомненного образа, то узнавания не произойдет. Запомненный образ не будет изменяться, если текущий входной вектор не окажется достаточно похожим на него. Таким образом решается дилемма стабильности-пластичности. Новый образ может создавать дополнительные классификационные категории, однако новый входной образ не может заставить измениться существующую память.


         2.3.2 Основные определения и Леммы

Опр1:     n - номер 1-го необученного нейрона,

n1 = 1;

при t = T1


Опр2:     c - командная переменная,


 при t = T1


Опр3:         i-й ансамбль обучен :

 X

Лемма 1 (об обучении):        

Лемма 2 (о командном блоке):       Пусть Ii = 1 (при t = T1), => c = 0,


         2.3.3 Теорема о стабильности

Теорема (о стабильности): X :

         2.3.4 Доказательство

1.  Существование:


X1 : B1 = X1 => I1 = 1 (из Леммы об обучении)


Ч.т.д.

2.  Единственность:

От противного


Предположим


Из (1) по Л2 следует, что т.к. Ik = 1 , т.е. пункт (2) не возможен

Ч.т.д.

2.3.5 Архитектура ВPT

На рис. 8 показана схема сети ВPT, представленная в виде четырех функциональных модулей. Она включает Блок Управления, N фильтров, N ансамблей нейронов и Командный Модуль. Блок Управления и Командный Модуль обеспечивают управляющие функции, необходимые для обучения и классификации.


Рис. 8. Схема ВРТ

Страницы: 1, 2, 3, 4, 5, 6, 7



2012 © Все права защищены
При использовании материалов активная ссылка на источник обязательна.