Прогнозирование финансовых рынков с использованием искусственных нейросетей


Описание рыночной ситуации при помощи приращений котировок - часть 2


Рис. 2.4. Пример первого «образа» из обучающего множества

Наибольшей энтропией обладает равномерное распределение [37], т.е., кроме необходимого увеличения значений ряда приращений котировок, желательно провести над ними такое преобразование, которое приблизило бы распределение значений ряда к равномерному.

Сегодня известно множество способов преобразования входной информации применимых к задачам прогнозирования, например, можно воспользоваться следующей схемой: DC1t = DCt*1000, т.е. на первом шаге домножаем изменения котировок на константу, а на втором шаге используем самый естественный способ «перекодировать» непрерывные данные в интервал активационных функций ИНС, т.е. применяем к данным преобразование функцией-сигмоидом, используемой в первом скрытом слое ИНС: DC2t = 1/(1+EXP(-1.5*DC1t))-0.5

[37].

Измененный по такой схеме первоначальный «образ» представлен на рис. 2.5.

Рис. 2.5. Пример готового к подаче на входы нейросети первого «образа»

из обучающего множества

Сформированные по описанной схеме «образы» составляют обучающее множество. Таким образом, обучающее множество, построенное на часовой динамике курса евро/доллар, почти равномерно распределено, хотя его значения больше тяготеют к среднему и экстремальным значениям (рис. 2.6).

0                                                         0,5                                                      1

Рис. 2.6. Распределение значений на 1-м входном нейроне ИНС

В качестве поступающих на входы ИНС данных могут выступать как приращения цен одного типа, например цен закрытия, так и комбинации приращений разных типов цен в пределах одного временного интервала. Например, информация, содержащаяся в «свече», а именно, цены: открытия, максимальная, минимальная, закрытия, может подаваться на 4 входных нейрона. Очевидно, что при таком подходе к описанию рыночной ситуации появляются трудности при попытке охватить достаточное количество интервалов времени в прошлом. Для кодирования информации о 24 последних интервалах (сутки на часовом графике), например, понадобится 96 входных нейронов.Задача с такой размерностью входной информации может быть решена качественно лишь при наличии специального оборудования (нейроплат, нейрочипов).

Тем не менее, такая постановка задачи имеет смысл, если пытаться найти зависимость на основе небольшого окна. На рисунке 2.7 показана процедура формирования входного образа для задачи с окном 3 периода. В качестве входных данных выступают приращения максимальных, минимальных цен и цен закрытия периода. Такой подход к прогнозированию можно рассматривать как нейросетевой аналог анализа «японских свечей», поскольку прослеживается прямая аналогия с попытками некоторых трейдеров найти закономерности в комбинациях последних «японских свечей», образовавшихся на графике.

Рис. 2.7. Нейросетевой анализ «японских свечей»




Начало  Назад  Вперед



Книжный магазин