Диплом, курсовая, контрольная работа
Помощь в написании студенческих работ

Нейросетевые модели для управления инвестициями в финансовые инструменты фондового рынка

ДиссертацияПомощь в написанииУзнать стоимостьмоей работы

Начало современному математическому моделированию нейронных вычислений было положено работами Хопфилда в 1982 году, в которых была сформулирована математическая модель ассоциативной памяти на нейронной сети с использованием правила Хеббиана для программирования сети. Но не сама модель послужила толчком к появлению работ других авторов на эту тему, сколько введённая Хопфилдом функция… Читать ещё >

Содержание

  • 1. Искусственные нейронные сети
  • 2. Управление инвестициями в финансовые инструменты фондового рынка
  • Глава 1. Модели на основе однослойных нейронных сетей
    • 1. 1. Непрерывная нейросетевая модель
    • 1. 2. Дискретная нейросетевая модель
      • 1. 2. 1. Примеры дискретных нейросетевых моделей
    • 1. 3. Методы обучения нейронных сетей
      • 1. 3. 1. Алгоритм градиентного спуска
      • 1. 3. 2. Правило обучения Видроу-Хоффа
    • 1. 4. Задача прогнозирования котировок ценных бумаг
      • 1. 4. 1. Критерий оценки качества прогноза
      • 1. 4. 2. Определение параметров нейросетевой модели
      • 1. 4. 3. Предварительная обработка временного ряда
      • 1. 4. 4. Однодневное прогнозирование
      • 1. 4. 5. Долгосрочный прогноз
      • 1. 4. 6. Примеры прогнозов динамики временных рядов, котировок акций российских эмитентов на ММВБ
    • 1. 5. Построение адаптивных комбинаций моделей прогнозирования
    • 1. 5. Г Постановка задачи
      • 1. 5. 2. Численное моделирование
    • 1. 6. Выводы к Главе 1
  • Глава 2. Модели.на основе многослойных нейронных сетей
    • 2. 1. Топология многослойных нейронных сетей
    • 2. 2. Алгоритм обратного распространения ошибки
      • 2. 2. 1. Критерий останова
      • 2. 2. 2. Достаточный объем обучающей выборки для обобщения
      • 2. 2. 3. Недостатки алгоритма обратного распространения ошибки
    • 2. 3. Оптимизация обучения по алгоритму обратного распространения
      • 2. 3. 1. Адаптивный шаг обучения для различных функций активации
      • 2. 3. 2. Метод обучения с ранним остановом
      • 2. 3. 3. Модификация целевого функционала в задаче прогнозирования
    • 2. 4. Численное моделирование
      • 2. 4. 1. Определение оптимальных значений параметров обучения
      • 2. 4. 2. Прогнозирование
    • 2. 5. Примеры, прогнозов динамики временных рядов котировок акций российских эмитентов на ММВБ
    • 2. 6. Нейронные сети на основе радиальных базисных функций
    • 2. 7. Стратегии обучения сетей на основе радиальных базисных функций
      • 2. 7. 1. Случайный выбор фиксированных центров
      • 2. 7. 2. Выбор центров-на основе самоорганизации
      • 2. 7. 3. Выбор центров с учителем
    • 2. 8. Задача идентификации нелинейных динамических процессов
      • 2. 8. 1. Метод восстановления фазового пространства
      • 2. 8. 2. Численное моделирование
    • 2. 9. Выводы к Главе 2
  • Глава 3. Управление инвестициями в финансовые инструменты фондового рынка
    • 3. 1. Основные понятия
    • 3. 2. Правила открытия и закрытия позиции
    • 3. 3. Увеличение объема выигрывающей позиции
    • 3. 4. Методика оптимизации портфеля Марковица
      • 3. 4. 1. Задача построения инвестиционного портфеля
      • 3. 4. 2. Алгоритм формирования инвестиционного портфеля
    • 3. 5. Тестирование комплекса программ для управления инвестициями
      • 3. 5. 1. Отчеты о тестировании
      • 3. 5. 2. Методика тестирования
      • 3. 5. 3. Результаты тестирования
    • 3. 6. Выводы к Главе 3

Нейросетевые модели для управления инвестициями в финансовые инструменты фондового рынка (реферат, курсовая, диплом, контрольная)

1. Искусственные нейронные сети.

Структура искусственных нейронных сетей была смоделирована как результат изучения человеческого мозга. Искусственные нейронные сети имеют такие аналогичные мозгу свойства, как способность обучаться на опыте, основанном на знаниях, делать абстрактные умозаключения, совершать ошибки, что является более характерным для человеческой мысли, чем для созданных человеком компьютеров.

Искусственный нейрон имитирует в первом приближении свойства биологического нейрона. На вход искусственного нейрона поступает некоторое множество сигналов,. каждый из которых является выходом другого нейрона. Каждый вход умножается на соответствующий вес, аналогичный синаптической силе, и все произведения суммируются, определяя уровень активации нейрона. Хотя парадигмы нейронных сетей весьма разнообразны, в основе почти всех их лежит эта конфигурация.

Задать нейронную сеть, способную решать конкретную задачу, — это значит определить модель нейрона, топологию связей, веса связей. Нейронные сети различаются между собой в меньшей степени моделями нейрона, а в основном топологией связей и правилами определения весов.

Поведение искусственной нейронной сети зависит как от значения весовых коэффициентов, так и от функции возбуждения нейронов (активационной функции или функции активации). Известны три основных вида функций активации: пороговая, линейная и сигмоидальная. Для нейронов с пороговой функцией активации выход устанавливается на одном из двух уровней в зависимости от того, больше или меньше суммарный сигнал на входе нейрона некоторого порогового значения. Для линейных элементов выходная активность пропорциональна суммарному взвешенному входу нейрона. Для сигмоидальных элементов в зависимости от входного сигнала, выход варьируется непрерывно, но не линейно, по мере изменения входа. Примерами сигмоидов [27] являются гиперболический тангенс и логистическая функция вид = -—а>0.

1 + е.

По структуре связей сети делятся на два больших класса: однослойные и многослойные.

Простейшая сеть состоит из группы нейронов, образующих слой, -однослойная нейронная сеть. К однослойным относятся модель Хопфилда и её последующие разработки [43], некоторые типы модели нейронной сети, известной под названием «машина Болыдмана» [33], [36].

Многослойная сеть имеет входной (распределительный), выходной и скрытые слои, на входной подается информация, с выходного снимается ответ, скрытые слои участвуют в обработке. Выход одного слоя является входом для последующего слоя.

Нейронные сети, созданные для решения конкретной задачи, приобретают свои свойства в процессе обучения. Обучение включает в себя либо определение значений весовых коэффициентов синаптических узлов, либо специальных правил, по которым весовые коэффициенты могут быть изменены в зависимости от отклика конкретной нейронной сети.

Сеть обучается, чтобы для некоторого множества входов давать желаемое (или, по крайней мере, сообразное с ним) множество выходов. Каждое такое входное или выходное множество рассматривается как вектор. Обучение осуществляется путем последовательного предъявления входных векторов с одновременной подстройкой весов в соответствии с определенной процедурой. В процессе обучения веса сети постепенно становятся такими, чтобы каждый входной вектор вырабатывал выходной вектор. Нейронные сети могут также обучаться совместно. В процессе совместного обучения наступает явление, названное синхронизацией. Подробное описание данного явления и его применение в криптографии дано в работах [14], [18].

Различают алгоритмы обучения с учителем и без учителя.

Обучение с учителем предполагает, что для каждого входного вектора существует целевой вектор, представляющий собой требуемый выход. Вместе они называются обучающим примером. Обычно сеть обучается на некотором числе обучающих примеров. Предъявляется входной вектор, вычисляется выход сети и сравнивается с соответствующим целевым вектором, разность (ошибка) с помощью обратной связи подается в сеть и веса изменяются в соответствии с алгоритмом, стремящимся минимизировать ошибку. Примеры из обучающего множества предъявляются последовательно, вычисляются ошибки, и веса подстраиваются для каждого примера до тех пор, пока ошибка по всему обучающему множеству не достигнет приемлемо низкого уровня.

Примерами алгоритмов обучения с учителем могут служить алгоритм обучения персептрона (модель Розенблатта) и алгоритм обратного распространения.

В отличие от алгоритма обучения с учителем, развитая Кохоненом и многими другими модель обучения, без учителя не нуждается в целевом векторе для выходов. Обучающее множество состоит лишь из входных векторов. Обучающий алгоритм подстраивает веса сети так, чтобы получились согласованные выходные векторы, т. е. чтобы предъявление достаточно близких входных векторов давало одинаковые выходы. Процесс обучения, следовательно, выделяет статистические свойства обучающего множества и группирует сходные векторы в классы. Предъявление на вход вектора из данного класса даст определенный выходной вектор, но до обучения невозможно предсказать, какой выход будет производиться данным классом входных векторов. Следовательно, выходы подобной сети должны трансформироваться в некоторую понятную форму, обусловленную процессом обучения. Это не является серьезной проблемой, так как обычно не сложно идентифицировать связь между входом и выходом, установленную сетью.

Одним из алгоритмов обучения без учителя, оказавшимся наиболее плодотворным, был. алгоритм Д. Хэбба, который в 1949 году предложил закон обучения, явившийся стартовой точкой для алгоритмов обучения искусственных нейронных сетей.

Большинство современных алгоритмов обучения выросло из концепций Хэбба. Им предложена модель обучения без учителя, в которой синаптический вес возрастает, если активированы оба нейрона, Источник и приемник. Таким образом, часто используемые пути в сети усиливаются и феномен привычки и обучения через повторение получает объяснение:

В искусственной нейронной сети, использующей обучение по Хэббу, наращивание весов определяется произведением уровней возбуждения передающего и принимающего нейронов. Это можно записать как w.(t + l) = wu (t) + ayiyJ, где w (t) — значение веса от нейрона / к нейрону j до подстройки, wtJ (t +1) -значение веса от нейрона /' к нейрону j после подстройки, а — коэффициент скорости обучения, у — выход нейрона j.

Сети, использующие обучение по Хэббу конструктивно развивались, однако за последние 30 лет были развиты более эффективные алгоритмы, обучения. В частности, были развиты алгоритмы обучения с учителем, приводящие к сетям с более широким диапазоном характеристик обучающих входных образов и большими скоростями обучения, чем использующие простое обучение по Хэббу.

Первое систематическое изучение нейронных сетей было предпринято У. Мак-Каллоком (W. McCulloch) и У. Питтсом (W. Pitts). В 1943 году У. Мак-Каллок и его ученик У. Питтс сформулировали основные положения теории деятельности головного мозга [20]. Ими были получены следующие результаты:

1. разработана модель нейрона как простейшего процессорного элемента, выполняющего вычисление переходной функции от скалярного произведения вектора входных сигналов и вектора весовых коэффициентов;

2. предложена конструкция сети таких элементов для выполнения арифметических и логических операций;

3. сделано основополагающее предположение о том, что такая сеть способна обучаться, распознавать образы, обобщать полученную информацию.

Нейрон Мак-Каллока — Питтса функционирует в дискретном времени. Он имеет N входов — синапсов и единственный выход. Значение выходного сигнала у{{) = 1 соответствует состоянию возбуждения. В состоянии покоя выходной сигнал у (0 = 0. В момент времени? выходной сигнал формируется в зависимости от сигналов — 1),.— 1), поступивших на синапсы в момент времени? —1. Последние также могут принимать значения ноль или единица. Если синаптический сигнал равен нулю, то говорят, что синапс находится в состоянии покоя. Единичное значение соответствует состоянию возбуждения синапса. Сигнал на синапс поступает либо от выхода другого нейрона, либо от сенсора — специального входа для внешних сигналов. Первоначально правила формирования выходного сигнала были введены авторами модели в виде ряда аксиом. Приведем две из них.

1. Для возбуждения нейрона в момент времени? необходимо в момент времени I-1 возбудить определенное, фиксированное число синапсов, которое не зависит ни от предыдущей истории, ни от состояния нейрона.

2. Нейрон имеет особые входы — тормозящие синапсы. Возбуждение любого из них в момент времени t — 1 исключает возбуждение нейронов в момент времени ^.

Впоследствии модель изменилась. Синаптические сигналы — -1) (не обязательно бинарные) стали взвешивать и формировать n суммарный входной сигнал = Здесь <7- - числа, которые.

1=1 называют синаптическими весами. Синапс называют возбудительным, если > 0, и тормозным, если <дг (< 0. Договорились, что в момент времени? нейрон находится в возбужденном состоянии (у (/) = 1), если суммарный входной сигнал в момент времени. / -1 превысил некоторое пороговое значение и0, т. е. n a (t-) = ^qixl{t-Х)>щ. Пусть 0(v) — функция Хевисайда. Она принимает нулевое значение при v < 0 и единичное при v > 0. Тогда можно записать: n (=i.

Описанный объект есть то, что в настоящее время называют формальным нейроном Мак-Каллока — Питтса.

Несмотря на то, что за прошедшие годы нейроинформатика ушла далеко вперед, многие утверждения Мак-Каллока остаются актуальными и поныне. В частности, при большом разнообразии моделей нейронов принцип их действия, заложенный Мак-Каллоком и Питтсом, остаётся неизменным.

Недостатком данной модели является пороговый вид переходной функции, не предоставляющий нейронной сети достаточную гибкость при обучении и настройке на заданную проблему.

Серьёзное развитие нейрокибернетика получила в работах американского нейрофизиолога Френсиса Розенблатта (F. Rosenblatt) из Корнельского университета. В 1958 году он предложил свою модель нейронной сети. Розенблатт ввёл в модель Мак-Каллока и Питтса способность связей к модификации, что сделало её обучаемой. Эта модель была названа персептроном [22], [24], [57], [25]. Первоначально персептрон представлял собой однослойную структуру с жёсткой пороговой функцией процессорного элемента и бинарными или многозначными входами.

Первые персептроны были способны распознавать некоторые буквы латинского алфавита. Впоследствии модель персептрона была значительно усовершенствована [25].

Персептрон применялся для задачи автоматической классификации, которая в общем случае состоит в разделении пространства признаков между заданным количеством классов. В двухмерном случае требуется провести линию на плоскости, отделяющую одну область от другой. Однослойный персептрон способен делить пространство только прямыми линиями (плоскостями) [7], [22].

Персептрон обучают, подавая множество образов по одному на его вход и подстраивая веса до тех пор, пока для всех образов не будет достигнут требуемый выход.

Алгоритм обучения персептрона выглядит следующим образом:

1. системе предъявляется эталонный образ;

2. если выходы системы срабатывают правильно, весовые коэффициенты связей не изменяются;

3. если выходы срабатывают неправильно, весовым коэффициентам даётся небольшое приращение в сторону повышения качества распознавания.

В основе алгоритма лежит дельта-правило. Вводится в рассмотрение величина 8, которая равна разности между требуемым или целевым выходом Т и реальным выходом А.

8 — Т — А.

Случай, когда 8−0, отвечает тому, что выход правилен и в сети ничего не изменяется.

В случае, когда 6 > О или 5 < 0 персептронный алгоритм обучения сохраняется, если 8 умножается на величину каждого входа х1 и это произведение добавляется к соответствующему весу. С целью обобщения вводится коэффициент «скорости обучения» 77, который умножается на 8×1, что позволяет управлять средней величиной изменения весов.

В алгебраической форме записи.

А, = т]8х, +1) = ^(0 +А, > где А, — коррекция, связанная с /-м входом >^(/ + 1) — значение веса / после коррекцииту (/) — значение веса / до коррекции.

Дельта-правило модифицирует веса в соответствии с требуемым и действительным значениями выхода, как для непрерывных, так и для бинарных входов и выходов. Эти свойства открыли множество новых приложений.

Линейная разделяющая поверхность, формируемая персептроном, ограничивает круг решаемых им задач. Выходом из этого положения является использование многослойного персептрона, способного строить ломаную границу между распознаваемыми образами.

В 1969 году Минский и Пайперт показали, что персептрон не может решить задачу «ИСКЛЮЧАЮЩЕЕ ИЛИ». Выводы их по поводу перспектив персептронной модели были весьма пессимистичными. В связи с этим исследования в области нейронных сетей были почти полностью прекращены вплоть до конца 70-х годов.

Новый виток быстрого развития моделей на основе нейронных сетей, который начался в 80-х годах, связан с работами Амари (S. Amari), Андерсона, Карпентера (G. A. Carpenter) [33], Кохена (М. A. Cohen) [36] и других, и в особенности, Хопфилда (J. Hopfield) [26], [41]-[43], а также под влиянием обещающих успехов1 оптических технологий [1] и зрелой фазы развития СБИС [36] для реализации новых архитектур.

Начало современному математическому моделированию нейронных вычислений было положено работами Хопфилда в 1982 году, в которых была сформулирована математическая модель ассоциативной памяти на нейронной сети с использованием правила Хеббиана [40] для программирования сети. Но не сама модель послужила толчком к появлению работ других авторов на эту тему, сколько введённая Хопфилдом функция вычислительной энергии нейронной сети, являющейся аналогом функции Ляпунова в динамических системах. Показано, что для однослойной нейронной сети со связями типа «все на всех» характерна сходимость к одной из конечного множества равновесных точек, которые являются локальными минимумами функции энергии, содержащей в в себе всю структуру взаимосвязей в сети. Понимание такой динамики нейронной сети было и у других исследователей. Однако Хопфилд и Тэнк [26] показали как конструировать функцию энергии для конкретной оптимизационной задачи и как использовать её для отображения задачи в нейронную сеть. Например, для симметричной нейронной сети с обратными связями, т. е. связями, идущими от выходов сети к её входам, функция энергии может быть введена следующим образом: ' У j j где Е — искусственная энергия сети, — вес от выхода нейрона / к входу нейрона у, у1 — выход нейрона / и вход нейрона у, у] - выход нейрона у, I] -внешний вход нейрона ] ¦, Tj — порог нейрона у .

Этот подход получил развитие и для. решениядругих комбинаторных оптимизационных задач. Привлекательность подхода Хопфилда состоит в том, что нейронная сеть для конкретной задачи может быть запрограммирована без обучающих итераций. Веса связейвычисляются на основании вида функции энергии, сконструированной для этой задачи.

3.6 Выводы к Главе 3.

В результате проведенных в третьей главе разработки и тестировании комплекса программ для управления инвестициями в финансовые инструменты фондового рынка получены следующие основные результаты:

1. Изложены основные положения, правила построения и механизм работы комплекса программ для управления инвестициями на фондовом рынке, включая формализацию биржевой стратегии, определяющей правила открытия и закрытия позиций по финансовым инструментам, методику управления капиталом, механизмы тестирования и оптимизации программного комплекса.

2. На основе портфельной теории Марковича проведено построение инвестиционного портфеля из произвольного количества финансовых инструментов с учетом ограничений на их состав и веса в портфеле (лимитов) и приведен алгоритм поиска численных решений данной задачи.

3. Реализован метод увеличения объема выигрывающей длинной позиции для трендовых систем, позволяющий снизить риски инвестирования, сохраняя высокую общую доходность.

4. На основе предложенных в работе алгоритмов и методов построения и функционирования комплекса программ для управления инвестициями на фондовом рынке, а также рассмотренной ранее методики прогнозирования временных рядов с помощью нейронных сетей и методов построения алгоритмических комбинаций моделей прогнозирования, реализован комплекс программ для биржевой торговли акциями российских эмитентов на ММВБ.

5. В соответствии с изложенной методикой проведено тестирование и оптимизация разработанного программного комплекса на примере временных рядов котировок акций ОАО «Полюс Золота» и ОАО «ГАЗПРОМ». Результаты тестирования показали, что разработанный программный комплекс для управления инвестициями в финансовые инструменты фондового рынка, по доходности более чем в два раза превзошла пассивную стратегию инвестирования.

Заключение

.

В диссертации получены следующие основные результаты:

1. С помощью разработанной в диссертации методики применения однослойных нейронных сетей проведено численное моделирование динамики временного ряда и прогнозирование биржевых котировок акций ОАО «Сбербанк» за период с 12.01.2009 по 12.07.2009 г. Получены однодневный и долгосрочный прогнозы для исследуемого временного ряда, рассмотрено влияние различных параметров модели и метода на скорость сходимости алгоритма обучения и качество прогноза. Проведенные численные эксперименты показали, что использование адаптивного шага обучения позволяет сократить число итераций алгоритма обучения, необходимых для сходимости градиентного метода минимум на 10%, но не приводит к росту качества прогноза для данной прикладной задачи. Наилучшее качество прогноза показали модели с сигмоидальной функцией активации, для которых ошибка однодневного прогноза значений котировок не превышает 2,6%.

2. С помощью аппарата однослойных нейронных сетей проведено построение адаптивных комбинаций моделей прогнозирования. Численное моделирование по данным котировок акций ОАО «Сбербанк» выявило преимущество адаптивных комбинаций в 30−40% по точности прогноза значений и в 10−20% по точности прогноза направления тренда по сравнению с базовыми алгоритмами, составляющими динамическую комбинацию.

3. Выработана схема применения нейронных сетей на основе радиальных базисных функций для прогнозирования временных рядов котировок финансовых инструментов на фондовом рынке. Проведено численное моделирование динамики временного ряда и прогнозирование биржевых котировок акций ОАО «Сбербанк» выявившее преимущество использования моделей на основе сетей радиальных базисных функций для долгосрочного прогноза.

4. С помощью выработанной методики применения многослойных нейронных сетей, обученных по алгоритму обратного распространения ошибки, проведено численное моделирование динамики временного ряда и прогнозирование биржевых котировок акций ОАО «Сбербанк» за период с 12.01.2009 по 12.07.2009 г. Получены однодневный и долгосрочный прогнозы для исследуемого временного ряда, рассмотрено влияние различных параметров модели и метода на качество прогноза. Предложена модификация целевого функционала в алгоритме обратного распространения, позволяющая повысить качество прогноза направления тренда для временного ряда котировок акций в среднем на 20% и обеспечить прогноз значений котировок с ошибкой не превышающей 2% в данной прикладной задаче.

5. Реализован метод увеличения объема выигрывающей позиции, позволяющий снизить риски инвестирования, сохраняя высокую общую доходность системы.

6. На основе предложенных в работе алгоритмов и методов управления инвестициями в финансовые инструменты фондового рынка, а также рассмотренных математических моделей прогнозирования временных рядов с помощью нейронных сетей и методов построения алгоритмических комбинаций моделей прогнозирования, в среде программирования Borland Delphi 7.0 реализован комплекс программ для управления инвестиционной деятельностью на фондовом рынке.

7. В соответствии с изложенной методикой проведено тестирование и оптимизация разработанного комплекса программ для управления инвестициями в финансовые инструменты фондового рынка на примере временных рядов котировок акций ОАО «Полюс Золота» и ОАО «ГАЗПРОМ».

Показать весь текст

Список литературы

  1. Абу-Мустафа Я.С., Псалтис Д. Оптические нейронно-сетевые компьютеры// В мире науки. 1987. N 5. С. 42−50.
  2. Е.А. Оптимальное управление динамическими системами. Тверь: ТвГУ, 1999.
  3. C.B. Статистика для трейдеров. — М.: Компания «Спутник +», 2003.- 245 с.
  4. К.В. Оптимизационные методы линейной и монотонной коррекции в алгебраическом подходе к проблеме распознавания // ЖВМ и МФ. 2000. -Т.40, № 1. — С.166−176.
  5. В.А. Нейронные сети: обучение, организация и применение. Кн.4:Учеб.пособие для вузов/Общая ред. А. И. Галушкина. М.: ИПРЖР, 2001.-256 с.
  6. Дуда Р,. Харт П. Распознавание образов и анализ сцен: Пер. с англ. М.: Мир. -1976.-511с.
  7. А.Г. Персептрон — системы распознавания образов. К.: Наукова думка, 1972.
  8. А.Н. Представление непрерывных функций многих переменных суперпозицией функций одной переменной и сложением// ДАН.-1958.-N.5.-С.953−956.
  9. П.П. Как не проиграть на финансовых рынках. — М.: ДИС, 1998. — 416 с.
  10. Ю.Кратович П. В. Использование стохастических моделей для прогнозирования стоимости ценных бумаг// Математические методы управления: Сб. науч. тр.- Тверь: ТвГУ, 2009. С. 54 — 66-
  11. П.Кратович П. В. Методика увеличения объема выигрывающей позиции для трендовых торговых систем// Альманах современной науки и образования. — Тамбов: Грамота, 2010. № 1 (32). — С. 58 — 61-
  12. П.В. Модели нейронных сетей и модели АШМА в задаче прогнозирования временных рядов// Математические методы управления: Сб. науч. тр. Тверь: ТвГУ, 2010. — С. 69 — 78-
  13. П.В. Модель нейронной сети типа ЯВЕ для прогноза котировок// Естественные и технические науки. — Москва: Спутник+, 2010. № 6 (50). — С. 527−529.
  14. Н.Кратович П. В. Модель синхронизации нейронных сетей и ее применение в криптографии// Многоуровневая система подготовки специалистов на основе информационных и коммуникационных технологий образования: Сб. науч. тр. Тверь: ТвГУ, 2006. — С. 88 — 104-
  15. П.В. Предпрогнозный анализ временных рядов финансовых данных на основе методов фрактального анализа// Молодой ученый. — № 1—2, 2010 — С. 11−17.
  16. П.В. Синхронизация нейронных сетей и ее применение// Приложения нейронных сетей в математическом моделировании: Сб. науч. тр. Оренбург: ОГУ, 2008 -С. 56- 72.-
  17. В.М., Байдык Т. Н. Разработка архитектуры нейроподобной сети для распознавания формы объектов на изображении// Автоматика. 1990. N 5. С. 56−61.
  18. Мак-Каллок У., Питтс У. Логические исчисления идей, относящихся к нервной деятельности//Автоматы. М.: ИЛ, 1956.
  19. В.Ф. Инвестиционный менеджмент. //Московская финансово-промышленная академия. -М., 2005. 158 с.
  20. М., Пайперт С. Персептроны. М.: Мир, 1971.
  21. .Т. Введение в оптимизацию. -М.: Наука.- 1983.-384 с.
  22. Ф. Аналитические методы изучения нейронных сетей// Зарубежная радиоэлектроника. 1965. N 5. С. 40−50.
  23. Ф. Принципы нейродинамики: Персептрон и теория механизмов мозга. Пер. с англ. -М.: Мир, 1965.
  24. Д. У. Хопфилд Д.Д. Коллективные вычисления в нейроподобных электронных схемах//В мире науки. 1988. N 2. С. 44−53.
  25. Ф. Нейрокомпыотерная техника: Теория и практика. М.: Мир, 1992.
  26. С. Нейронные сети: полный курс, 2-е издание. Пер. с англ. — М.: Издательский дом «Вильяме», 2006. — 1104 с.
  27. Д.Е. Как обучаются нейронные сети// В мире науки. 1992. N 11. С. 103−107.
  28. У., Александр Г., Бейли Дж. Инвестиции //Пер. с англ. М.: ИНФРА-М, 2001 -XII, 1028 с. :
  29. Barron A.R. Universal approximation bounds for superpositions of sigmoidal function//IEEE Transactions on Information Theory, 1993, vol. 39, P. 930−945.
  30. Broomhead D., S.D. Lowe Multivariable functional interpolation and adaptive networks//Complex Systems, 1988, vol. 2, P. 321−355.
  31. Carpenter G.A., Grossberg S.^4 massively parallel architecture for a self-organizing neural pattern recognition machine// Comput. Vision Graphics Image Process. 1986. V. 37. P. 54−115.
  32. Chen S., B. Mulgrew, S. McLaughlin Adaptive Bayesian feedback equalizer based on a radial basis function network// IEEE International Conference on Communications, 1992, vol. 3 P. 1267−1271, Chicago.
  33. Chinrungrueng С., C.H. Sequin Optimal adaptive k-means alrorithm with dynamic adjustment of learning rate// IEEE Transactions on Neural Networks, 1994, vol. 6 P. 157−169.
  34. Cohen M.A., Grossberg S. Absolute stability of global pattern formation and parallel memory storage by competitive neural networks// IEEE Trans. Syst., Man, Cybern. 1983. V. 13. N 5. P. 815−826.
  35. Cover T.M. Geometrical and statistical properties of systems of linear inequalities with applications in pattern recognition// IEEE Transactions on Electronic Computers, 1965, vol. EC-14, P. 326−334.
  36. Golub G.H., G.G. Van Loan Matrix Computations, 3rd edition, Baltimor: John Hopkins University Press, 1996.
  37. Hardy R.L. Multiquadric equations of topography and other irregular surfaces// Journal of Geophysics Research, 1971, vol. 76 P. 1905−1915.
  38. Hebb D.O. The organization of behavior. N.Y.: Wiley, 1949.
  39. Hopfield J.J., Feinstein D.I., Palmer F.G. Unlearning has a stabilizing effect in collective memories//Nature. 1983. V. 304. P. 141−152.
  40. Hopfield J.J. Neural networks and physical systems with emergent collective computational abilities//Proc. Natl. Acad. Sci. 1984. V. 9. P. 147−169.
  41. Hopfield J. J., Tank D.W. Neural computation of decision in optimization problems// Biol. Cybernet. 1985. V. 52. P. 141−152.
  42. Hornik K., Stinchcombe M. and White H. Multilayer feedforward networks are universal approximators//Neural Networks.- 1989.-N.2 P.359−366.
  43. Hortz J., Krogh A., Palmer R. Introduction to the theory of neural computation. -Addison Wesley Publishing Company.-199l.-327p.
  44. Lowe D. Adaptive radial basis function nonlinearities and the problem of generalization// First IEE International Conference on Artificial Neural Networks, 1989, P. 171−175, London.
  45. Lowe D. What have neural networks to offer statistical pattern processing?// Proceedings of the SPIE Conference on Adaptive Signal Processing, 1991, P. 460 471, San Diego, CA.
  46. Maxwell T., Giles C., Lee Y., Chen H. Nonlinear Dynamics of Artifical Neural Systems// Proceedings of the Conf. On Neural Networks for Computing.- American Institute ofPhusics.-1986.
  47. Mhaslcar H.N. Neural networks for optimal approximation of smooth and analytic functions//Neural Computation, 1996, vol. 8 P. 1731−1742.
  48. Micchelli C.A. Interpolation of scattered data: Distance matrices and conditionally positive definition functions// Constructive Aproximation, 1986, vol. 2, P. 11−22.
  49. Moody J., C.I. Darken Fast learning in networks of locally-tuned processing units// Neural Computation, 1989, vol. 1 P. 281−294.
  50. Niyogi P., F. Girosi On the relationship between generalization error, hypothesis complexity and sample complexity for radial basis functions// Neural Computation, 1996, vol. 8 P. 819−842.
  51. Pattern classification using neural networks// IEEE Communications Magazine, 1989, vol. 27 P. 47−64.
  52. Poggio T., F. Girosi Networks for approximation and learning// Proceedings of the IEEE, 1990, vol. 78 P. 1481−1497.
  53. Powell M.J.D. Radial basis function approximations to polynomials// Numerical Analysis 1987 Proceedings, 1988, P. 223−241', Dundee, UK.
  54. Powell M.J.D. The theory of radial basis function approximation in 1990//W. Light, ed., Advances in Numerical Analysis Vol. II: Wavelets, Subdivision Algorithms and Radial Basis Functions, 1992, P. 105−210, Oxford: Oxford Science Publications.
  55. Rosenblatt F. The perseptron: a probabilistic model for information storage and organization in the brain//Psychol. Rev. 1958. V. 65.
  56. Rumelhart D.E., G.E. Hinton and R.J. Williams «Learning representation of back-propagation error», Nature (London), 1986, vol.323, P.533 536.
  57. Sejnowski T.J., C.R. Rosenberg Parallel networks that learn to pronounce English text//Complex Systems, 1987, vol. 1 P. 145−168.
  58. Takefuji D.Y. A new model of neural networks for error correction// Proc. 9th Annu Conf. IEEE Eng. Med. and Biol. Soc. Boston, Mass., Nov. 13−16, 1987. V. 3, New York, 1987. P. 1709−1710.
  59. Takens F. Detecting Strange Attractors in Fluid Turbulence. In dynamical Systems and Turbulence, 1981, Springer, Berlin.
  60. Wettschereck D., T. Dietterich Improving the performance of radial basis function networks by learning center locations// Advances in Neural Information Processing Systems, 1992, vol. 4 P. 1133−1140, San Mateo, CA: Morgan Kaufmann.
  61. Widrow B., M.E. Hoff Jr. Adaptive switching circuits// IRE WESCON Convention Record
Заполнить форму текущей работой