Рефераты. Классификация сейсмических сигналов на основе нейросетевых технологий

следствии чего такая структура предлагается в качестве оптимальной.

Далее представлены описание параметров настройки программы во входных

файлах и результаты тестирования.

В качестве начальной конфигурации использовались следующие значения

настраиваемых параметров в файле “nvclass.inp”:

TYPE=2_2

NDATA=18

NPATTERN=86

PatternFile=norv18.pat

NetStructure=[18,9,1]

WidrowInit=No

Shuffle=Yes

Scaling=Yes

Eta=0.7

MaxLearnCycles=1950

Loop=5

Результаты экспериментов отражают количество ошибок идентификации от

различных параметров настройки программы.

Для примера рассмотрим влияние процедуры начальной инициализации

весовых коэффициентов и точности обучения на ошибку классификации. На

рисунках 7.1 и 7.2 едставлены эти результаты.

Отметим, что более стабильные результаты получаются в случае

инициализации весов при помощи нормально распределенных величин. Можно

добиться всего лишь 4-5 ошибок из 86, что соответствует ошибке

идентификации равной 5-6 процентов.

Для 9 размерных векторов признаков была использована следующая

структура нейронной сети , т.е. 5 нейронов на скрытом слое было

достаточно для получения хороших результатов.

В качестве примера приведем исследования аналогичные тем, которые

описаны выше.(Рис. 7.3, 7.4).

Последнюю диаграмму можно представить в виде.

Уже сейчас можно сделать вывод, что при использовании не всего набора

признаков идентификации, а некоторой части признаков результаты заметно

улучшаются. Причем для случая 9 –размерных признаков особую роль процедура

начальной инициализации не играет.

Представленные эксперименты не отражают полной картины о возможностях

применения нейронных сетей для идентификации типа сейсмического события, но

они экспериментально подтверждают эффективность нейросетевых технологий для

решения этой задачи.

8. Заключение

Проведенные исследования подтвердили эффективность применения

нейросетевых технологий для идентификации типа источника сейсмических

события. При определенных настройках нейронной сети можно добиться

результатов, когда вероятность правильного распознавания составляет 96.5%.

Ошибки возникают только на 3 векторах из 86. Если сравнивать полученные

результаты с теми, которые можно достичь при использовании стандартных

методов классификации, один из вариантов которых приведен в разделе 4, то

они практически повторяют друг друга. И статистика и нейронные сети

ошибаются одинаковое количество раз, причем на одних и тех же векторах. Из

86 событий статистические методы ошибаются на 3 векторах (1–землетрясение и

2-взрыва), и нейросетевой классификатор также ошибается именно на этих

векторах. Соответственно пока нельзя говорить о каком-то превосходстве

одного метода над другим.

Заметим, что в настоящих исследованиях были использованы довольно общие

и универсальные технологии нейроинформатики (многослойные сети применяются

для решения многих задач, но это не всегда самая оптимальная

нейроструктура), а применение более узких и специализированных нейронных

парадигм в некоторых случаях позволяет получать лучшие результаты. В

частности, при помощи нейропакетов на тех же данных были поставлены ряд

экспериментов над сетями Кохонена, описанными в разделе 5.4. Результаты

показали, что количество ошибок идентификации в большинстве случаев

составляет 3-4 вектора, т.е. практически совпадают с результатами,

полученными на многослойных сетях и классических методах.

Итак, подводя итог всему выше сказанному, выделим основные результаты

проведенных исследований:

1. Нейронные сети позволяют успешно решать проблему определения типа

источника сейсмического события.

2. Новое решение не уступает по эффективности традиционным методам,

использующимся в настоящее время для решения исследуемой задачи.

3. Возможны улучшения технических характеристик нейросетевого решения.

В качестве дальнейших исследований, направленных на повышение

эффективности нейросетевого решения, можно предложить следующие:

. Для многослойных сетей прямого распространения решить проблему начальной

инициализации весовых коэффициентов. Если предположить, что существует

неявная зависимость между матрицей начальных весовых коэффициентов и

конкретной реализацией выборки данных, предназначенной для обучения

нейронной сети, то можно объяснить те случаи, когда результат несколько

хуже, чем в большинстве экспериментов. Возможно, реализация алгоритма

учитывающего распределение исходных данных позволит получать более

стабильные результаты.

. Для этих же сетей можно использовать другие методы обучения, позволяющих

с большей вероятностью находить глобальный минимум функции ошибки.

. Исследование других парадигм и разработка специальной модели,

предназначенной конкретно для решения данной задачи могут привести к

улучшению полученных результатов.

Список литературы.

1. Уоссермен Ф. “Нейрокомпьютерная техника” - М.: Мир,1992.

2. Горбань А.Н., Дубинин-БарковскийВ.Л., Кирдин А.Н. “Нейроинформатика” СП

“Наука” РАН 1998.

3. Горбань А.Н., Россиев Д.А. “Нейронные сети на персональном компьютере”

СП “Наука” РАН 1996.

4. Ежов А.А., Шумский С.А. “Нейрокомпьютинг и его применение в экономике и

бизнесе”.1998.

5. Bishop C.M. “Neural Networks and Pattern Recognition.” Oxford Press.

1995.

6. Goldberg D. “Genetic Algorithms in Machine Learning, Optimization, and

Search.” – Addison-Wesley,1988.

7. Fausett L.V. “Fundamentals of Neural Networks: Architectures, Algorithms

and Applications”, Prentice Hall, 1994.

8. Kohonen T. “Self-organization and Associative Memory”, Berlin: Springer-

Verlag, 1989.

9. Kushnir A.F., Haikin L.M., Troitsky E.V. “Physics of the earth and

planetary interiors” 1998.

10. Копосов А.И., Щербаков И.Б., Кисленко Н.А., Кисленко О.П., Варивода

Ю.В. Отчет по научно-исследовательской работе "Создание аналитического

обзора информационных источников по применению нейронных сетей для задач

газовой технологии"; и др., ВНИИГАЗ, 1995, www.neuralbench.ru

11. Fukunaga K., Kessel D.L., “Estimation of classification error”, IEEE

Trans. Comp. C 20, 136-143. 1971.

12. Деев А.Д., “Применение статистического дискриминационного анализа и его

ассимптотического расширения для сравнения различных размерностей

пространства.”, РАН 195, 759-762. 1970.

Приложение.

1. Пример выборки сейсмограмм.

В левом столбце представлены сейсмограммы, описывающие взрывы, а в

правом – землетрясения.

2. Пример файла с векторами признаков.

Представлена выборка из файла 9_Norv.txt, содержащего 9 размерные вектора

признаков.

NumOfPattern: 86

PatternDimens: 9

1 -14.3104 -13.2561 -13.4705 -13.4306 -14.1015 -13.3503 -13.3805

-13.7369 -0.3494 0

2 -14.6881 -13.6349 -12.9050 -13.4323 -14.2279 -13.4720 -13.2117

-13.5791 -1.2801 0

3 -14.4036 -14.1745 -13.8014 -12.7209 -14.6283 -13.9589 -13.4649

-12.9716 -0.8250 0

55 -14.3693 -13.4362 -11.4072 -12.3129 -14.8612 -13.3480 -12.8517

-13.4014 -0.7738 0

56 -14.2856 -12.6858 -13.8215 -13.4282 -14.0982 -13.1587 -13.2792

-13.7852 -1.3442 0

57 -14.4822 -13.1141 -13.7787 -13.4466 -13.6761 -13.2969 -13.6033

-13.9252 -0.6642 1

58 -13.5522 -13.1302 -13.5444 -14.1471 -13.2994 -13.2368 -13.9776

-14.4295 -0.9973 1

59 -14.8524 -11.9846 -13.7231 -14.2496 -13.4809 -13.0515 -13.8950

-14.3923 -1.8284 1

85 -14.5994 -13.6920 -12.8539 -13.7629 -14.1699 -13.2075 -13.3422

-13.6788 -11.9537 1

86 -14.3821 -13.6093 -12.8677 -13.7788 -14.1260 -13.3246 -13.2966

-13.6453 -11.4304 1

3. Файл с настройками программы

#

# Common parameters for programm "NVCLASS"

#

# # # # # # # # # # # # # # # # # # # #

# 1_1 - OnlyTest mode , 1_2 - TestAfterLearn mode,

# 2_1 - CheckOneVector , 2_2 - CrossValidation mode.

#

TYPE=2_2

NDATA=9

NPATTERN=86

PatternFile=9_Norv.txt

NTEST=10

TestVector=vector.tst

NetworkFile=9.net

ResNetFname=9.net

NumberVector=57

ReportFile=Report.txt

Debug=Yes

#

# Next parameters was define in result experiments and if you will

# change it, the any characteristics of Neural Net may be not optimal

# (since may be better then optimal).

#

# # # # # # # # # # #

# 'NetStructure' must be: [NDATA,NUNIT1,1] (NOUT=1 always)

# value 'AUTO'-'NetStructure' will be define the programm.(See help).

# example : [18,9,1], or [18,18,1], or [9,9,5,1]

NetStructure=[18,12,1]

# may be: [Gauss] or [Random]

InitWeigthFunc=Gauss

Constant=3

Alfa=0

Sigma=1.5

Widrow=No

Shuffle=Yes

Scaling=Yes

LearnTolerance=0.1

Eta=1

MaxLearnCycles=50

Loop=3

#end of list

4. Пример файла отчета.

NVCLASS report - Wed Jun 02 15:58:02 1999

Type = 1_2

Neural Net -

PatternFile - vect.txt

Test Vector(s) - vector.tst

ResNetFname - 12.net

LearnTolerance = 0.10

InitialWeigthFunc = Gauss[ 0.0, 1.5]

< Loop 1 >

Learning cycle result:

NumIter = 5

NumLE = 3

Error vector(s): 58, 59, 63,

Страницы: 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 13



2012 © Все права защищены
При использовании материалов активная ссылка на источник обязательна.