Рефераты. Классификация сейсмических сигналов на основе нейросетевых технологий

градиенте функции ошибки, но и информацию о вторых производных .[3,4,7].

Стохастические методы обучения выполняют псевдослучайные изменения

величин весов, сохраняя те изменения, которые ведут к улучшениям

характеристик сети. К этой группе алгоритмов относятся такие как

1. Алгоритм поиска в случайном направлении.[10]

2. Больцмановское обучение или (алгоритм имитации отжига). [1]

3. Обучение Коши, как дополнение к Больцмановскому обучению.[1]

Основным недостатком этой группы алгоритмов является очень долгое время

обучения, а соответственно и большие вычислительные затраты. Однако, как

пишут в различных источниках, эти алгоритмы обеспечивают глобальную

оптимизацию, в то время как градиентные методы в большинстве случаев

позволяют найти только локальные минимумы функционала ошибки.

Известны также алгоритмы, которые основаны на совместном использовании

обратного распространения и обучения Коши. Коррекция весов в таком

комбинированном алгоритме состоит из двух компонент: направленной

компоненты, вычисляемой с использованием алгоритма обратного

распространения, и случайной компоненты, определяемой распределением Коши.

Однако, несмотря на хорошие результаты, эти методы еще плохо исследованы.

4.3 Сети Ворда.

Одним из вариантов многослойного персептрона являются нейронные сети

Ворда. Они способны выделять различные свойства в данных, благодаря наличию

в скрытом слое нескольких блоков, каждый из которых имеет свою передаточную

функцию (рис.4.4). Передаточные функции (обычно сигмоидного типа) служат

для преобразования внутренней активности нейрона. Когда в разных блоках

скрытого слоя используются разные передаточные функции, нейросеть

оказывается способной выявлять новые свойства в предъявляемом образе. Для

настройки весовых коэффициентов используются те же алгоритмы, о которых

говорилось в предыдущем разделе.

4.2 Сети Кохонена.

Сети Кохонена – это одна из разновидностей нейронных сетей, для

настройки которой используется алгоритм обучения без учителя. Задачей

нейросети Кохонена является построение отображения набора входных векторов

высокой размерности на карту кластеров меньшей размерности , причем таким

образом, что близким кластерам на карте отвечают близкие друг к другу

входные векторы в исходном пространстве.

Сеть состоит из M нейронов, образующих, как правило одномерную или

двумерную карту (рис. 4.2). Элементы входных сигналов {xi} подаются на

входы всех нейронов сети. В процессе функционирования (самоорганизации) на

выходе слоя Кохонена формируются кластеры (группа активных нейронов

определённой размерности, выход которых отличен от нуля), характеризующие

определённые категории входных векторов (группы входных векторов,

соответствующие одной входной ситуации). [9]

Алгоритм Кохонена формирования карт признаков.

Шаг 1. Инициализировать веса случайными значениями. Задать размер

окрестности ((0), и скорость ((0) и tmax.

Шаг 2. Задать значения входных сигналов (x1,…,xp).

Шаг 3. Вычислить расстояние до всех нейронов сети. Расстояния dk от

входного сигнала x до каждого нейрона k определяется по формуле:

[pic]

где

xi - i-ый элемент входного сигнала,

wki - вес связи от i-го элемента входного сигнала к нейрону k.

Шаг 4. Найти нейрон – победитель, т.е. найти нейрон j, для которого

расстояние dj наименьшее:

j:dj < dk (k(p

Шаг 5. Подстроить веса победителей и его соседей.

[pic] [pic]

Шаг 6. Обновить размер окрестности ((t) и скорость ((t)

((t)=((0)(1-t/tmax) ((t)=((0)(1-t/tmax)

Шаг 7. Если (t < tmax), то Шаг 2, иначе СТОП.

Благодаря своим способностям к обобщению информации, карты Кохонена

являются удобным инструментом для наглядного представления о структуре

данных в многомерном входном пространстве, геометрию которого представить

практически невозможно.

Сети встречного распространения.

Еще одна группа технических применений связана с предобработкой данных.

Карта Кохонена группирует близкие входные сигналы Х, а требуемая функция Y

= G(X) строится на основе обычной нейросети прямого распространения

(например многослойного персептрона или линейной звезды Гроссберга[1]) к

выходам нейронов Кохонена. Такая гибридная архитектура была предложена Р.

Хехт-Нильсеном и имеет название сети встречного распространения[1-3,7,9].

Нейроны слоя Кохонена обучаются без учителя, на основе самоорганизации, а

нейроны распознающих слоев адаптируются с учителем итерационными методами.

Пример такой структуры для решения задачи классификации сейсмических

сигналов приведен на рис. 4.5.

Второй уровень нейросети используется для кодирования информации.

Весовые коэффициенты tij (i =1,...,M; j=1,2) – коэффициенты от i-го нейрона

слоя Кохонена к j-му нейрону выходного слоя рассчитываются следующим

образом:

[pic]

где

Yi – выход i- го нейрона слоя Кохонена

Sj – компонента целевого вектора (S={0,1} – взрыв, S={1,0}-землетрясение)

Таким образом после предварительного обучения и формирования кластеров

в слое Кохонена, на фазе вторичного обучения все нейроны каждого

полученного кластера соединяются активными (единичными) синапсами со своим

выходным нейроном, характеризующим данный кластер.

Выход нейронов второго слоя определяется выражением:

(11) [pic]

где: [pic]

Kj - размерность j-ого кластера, т.е. количество нейронов слоя Кохонена

соединённых с нейроном j выходного слоя отличными от нуля

коэффициентами.

R - пороговое значение (0 < R < 1).

Пороговое значение R можно выбрать таким образом, чтобы с одной

стороны не были потеряны значения активированных кластеров, а с другой

стороны - отсекался "шум не активизированных кластеров".

В результате на каждом шаге обработки исходных данных на выходе

получаются значения Sj, которые характеризуют явление, породившее данную

входную ситуацию ([pic] - землетрясение; [pic] - взрыв).

4.5 Выводы по разделу.

Итак, подводя итог данной главе, следует сказать, что это далеко не

полный обзор нейросетевых архитектур, которые успешно справляются с

задачами классификации. В частности ничего не было сказано о вероятностных

нейронных сетях, о сетях с базисно радиальными функциями, о использовании

генетических алгоритмов для настройки многослойных сетей и о других, пусть

менее известных, но хорошо себя зарекомендовавших. Соответственно проблема

выбора наиболее оптимальной архитектуры для решения задачи классификации

сейсмических сигналов вполне актуальна. В идеале, конечно хотелось бы

проверить эффективность хотя бы нескольких из них и выбрать наилучшую. Но

для этого необходимо проводить более масштабные исследования, которые

займут много времени. На данном этапе исследований была сделана попытка

использовать хорошо изученные нейронные сети и алгоритмы обучения для того,

чтобы убедиться в эффективности подхода в целом. В главе 6 детально

обсуждаются нейросеть, которая была исследована в рамках настоящей

дипломной работы.

5. Методы предварительной обработки данных.

Если возникает необходимость использовать нейросетевые методы для

решения конкретных задач, то первое с чем приходится сталкиваться – это

подготовка данных. Как правило, при описании различных нейроархитектур, по

умолчанию предполагают что данные для обучения уже имеются и представлены в

виде, доступном для нейросети. На практике же именно этап предобработки

может стать наиболее трудоемким элементом нейросетевого анализа. Успех

обучения нейросети также может решающим образом зависеть от того, в каком

виде представлена информация для ее обучения.

В этой главе рассматриваются различные процедуры нормировки и методы

понижения размерности исходных данных, позволяющие увеличить

информативность обучающей выборки.

5.1 Максимизация энтропии как цель предобработки.

Рассмотрим основной руководящий принцип, общий для всех этапов

предобработки данных. Допустим, что в исходные данные представлены в

числовой форме и после соответствующей нормировки все входные и выходные

переменные отображаются в единичном кубе. Задача нейросетевого

моделирования – найти статистически достоверные зависимости между входными

и выходными переменными. Единственным источником информации для

статистического моделирования являются примеры из обучающей выборки. Чем

больше бит информации принесет пример – тем лучше используются имеющиеся в

нашем распоряжении данные.

Рассмотрим произвольную компоненту нормированных (предобработанных)

данных: [pic]. Среднее количество информации, приносимой каждым примером

[pic], равно энтропии распределения значений этой компоненты [pic]. Если

эти значения сосредоточены в относительно небольшой области единичного

интервала, информационное содержание такой компоненты мало. В пределе

нулевой энтропии, когда все значения переменной совпадают, эта переменная

не несет никакой информации. Напротив, если значения переменной [pic]

равномерно распределены в единичном интервале, информация такой переменной

максимальна.

Общий принцип предобработки данных для обучения, таким образом состоит

в максимизации энтропии входов и выходов.

5.2 Нормировка данных.

Как входами, так и выходами могут быть совершенно разнородные величины.

Очевидно, что результаты нейросетевого моделирования не должны зависеть от

Страницы: 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 13



2012 © Все права защищены
При использовании материалов активная ссылка на источник обязательна.