ФР Н-волатильность - страница 10

 

Как поймать , тем более на раннем этапе, появление арбитражности - не знаю.

На вход сети надо подавать N предпоследних сегментов ЗЗ, а на выход - последний. Это если использовать сеть встречного распространения. Тогда, при подходящей конфигурации сети, при подходящем выборе функции активации и при удачном обучении, при подаче на вход только N последних уже сегментов сеть будет восстанавливать эти N и последующий (т.е. предстоящий) тоже. С направлением его мудрить нечего - оно и так понятно, а вот размер ...

Может из этого что и получится.

 
Yurixx:

Как поймать , тем более на раннем этапе, появление арбитражности - не знаю.

На вход сети надо подавать N предпоследних сегментов ЗЗ, а на выход - последний. Это если использовать сеть встречного распространения. Тогда, при подходящей конфигурации сети, при подходящем выборе функции активации и при удачном обучении, при подаче на вход только N последних уже сегментов сеть будет восстанавливать эти N и последующий (т.е. предстоящий) тоже. С направлением его мудрить нечего - оно и так понятно, а вот размер ...

Может из этого что и получится.


А зигзаги в каком виде лучше подавать, абсолютном или относительном?И нужна ли будет нормалиазция?  По моему так и просится слой Кохонена и звезда Гроссберга. Хотя может я и не прав.
 
Vinin:
...По моему так и просится слой Кохонена и звезда Гроссберга.

И медаль "За Отвагу" :-)
Vinin, "звезда Гроссберга" это что за зверь?

Yurixx , предложи на своё усмотрение блок схему НС для данного случая. Хочется предметно подумать.

 
Neutron:
Vinin:
...По моему так и просится слой Кохонена и звезда Гроссберга.

И медаль "За Отвагу" :-)
Vinin, "звезда Гроссберга" это что за зверь?

Yurixx , предложи на своё усмотрение блок схему НС для данного случая. Хочется предметно подумать.


Вот ту примерно все расписано http://ann.hotmail.ru/vs03.htm

Но я повторюсь (хотя это уже не я), а просто цитата:

В процессе обучения сети встречного распространения входные векторы ассоциируются с соответствующими выходными векторами. Эти векторы могут быть двоичными или непрерывными. После обучения сеть формирует выходные сигналы, соответствующие входным сигналам. Обобщающая способность сети дает возможность получать правильный выход, когда входной вектор неполон или искажен.
В режиме обучения на вход сети подается входной сигнал и веса корректируются, чтобы сеть выдавала требуемый выходной сигнал.
Слой Кохонена функционирует по правилу “победитель получает все”. Для данного входного вектора только один нейрон этого слоя выдает логическую единицу, все остальные - нули. Выход каждого нейрона Кохонена является просто суммой взвешенных элементов входных сигналов.
Выходы нейронов слоя Гроссберга также являются взвешенными суммами выходов нейронов слоя Кохонена. Однако каждый нейрон слоя Гроссберга выдает величину веса, который связывает этот нейрон с единственным нейроном Кохонена, чей выход отличен от нуля.
На этапе предварительной обработки входных сигналов осуществляется нормализация входных векторов.
На этапе обучения слой Кохонена классифицирует входные векторы в группы схожих. Это достигается с помощью такой подстройки весов слоя Кохонена, что близкие входные векторы активируют один и тот же нейрон данного слоя. Какой именно нейрон| будет активироваться при предъявлении конкретного входного сигнала, заранее трудно предсказать, так как слой Кохонена обучается без учителя.
Затем задачей слоя Гроссберга является получение требуемых выходов. Обучение слоя Гроссберга - это обучение с учителем. Выходы нейронов вычисляются как при обычном функционировании. Далее каждый вес корректируется лишь в случае, если он соединен с нейроном Кохонена, имеющим ненулевой выход. Величина коррекции веса пропорциональна разности между весом и требуемым выходом нейрона Гроссберга.
В режиме функционирования сети предъявляется входной сигнал и формируется выходной сигнал.
В полной модели сети встречного распространения имеется возможность получать выходные сигналы по входным и наоборот. Этим двум действиям соответствуют прямое и обратное распространение сигналов.

 
Vinin:
А зигзаги в каком виде лучше подавать, абсолютном или относительном?И нужна ли будет нормалиазция? По моему так и просится слой Кохонена и звезда Гроссберга. Хотя может я и не прав.

Neutron:

Yurixx , предложи на своё усмотрение блок схему НС для данного случая. Хочется предметно подумать.


Предложить блок-схему не могу. История этой мысли такова.

Поначалу я действительно думал, что НС должна состоять из 2-х слоев - Кохонена и Гросберга. Проблема заключалась только в том, что для каги каждый сегмент ЗЗ может быть любым, от1 и ... Положим я на вход хочу подавать N сегментов ЗЗ и ограничиваю размер сигмента от 1 до 50. Тогда в слое Кохонена (до кластеризации) число максимальное нейронов равно 50^N. Многовато. Поэтому я и подумал о ренко. При Н=10 размер аналогичного сегмента ЗЗ изменяется в пределах 1 - 5. Это всего 5^N нейронов - уже приемлемо для небольших значений N. А все сегменты размером более 5Н можно обрезать значением 5Н.

Далее, слой Кохонена распознает паттерн и возбуждает соответствующий нейрон. На слой Гросберга подается последний сегмент ЗЗ (не входящий в эти N). Слой Гросберга содержит, скажем 100 нейронов, каждый из которых соответствует размеру последнего сегмента ЗЗ, от 1 до 100. Т.о. возбуждается нейрон слоя Гросберга. При обучении вес связи от возбужденного нейрона Кохонена к возбужденному нейрону слоя Гросберга увеличивается на 1. То есть это не сеть встречного распространения. Но такой уж сложился у меня "план". :-))

А потом до меня дошло, что после обучения при подаче на вход ЗЗ слой Гросберга покажет мне на выходе просто функцию распределения для будущего сегмента ЗЗ. В принципе я к этому и стремился. Однако, здесь 2 "но".

1. Такое распределение я могу построить значительно быстрее и без всяких НС.

2. Почти что двухлетняя история минуток содержит порядка 630000 баров. Каги ЗЗ с параметром Н=10 на этой истории имеет около 17400 сегментов. А число нейронов в слое Кохонена при N=6 будет 15625. То есть на каждый паттерн будет приходиться в среднем 1.1 экспериментальных значений. Какое уж тут распределение ? :-)

Таким образом, кластеризации, связанной с переходом к ренко разбиению, катастрофически недостаточно. Нужно либо кластеризовать ФП с помощью слоя Кохонена, либо (что скорее всего) перейти к более конструктивным идеям.

PS

Не судите строго за наивность. Мой опыт с сетями - 1.5 прочитанных книги и ни одной реализации.

 

Предлагаю начать с самого простого. Разобьём ЗЗ на элементарные конструкции состоящие из одной вершины. Нормируем стороны на длину первой грани и удержим одну значащую цифру после запятой см. рис. В этом случае мы имеем 17400 конструкций, разбитых (для шага Н=10) на 50/2Н*10=25 групп (примерно) по признаку "отношение сторон". Т.е. в каждой группе мы имеем по несколько сотен паттернов - уже статистика.

Осталось затолкать это в НС и выяснить, как зависит ФР длинны прогнозируемого движения (зелёного вектора минус Н) от величины левой грани. Вот только, коллеги, НС для решения этой задачи не очень нужна. Или я что-то упускаю?

P.S. На рис. справа показана ФР отношения сторон ЗЗ при одной вершине. Это построения Н=5,10,15 и 20 пунктов для EURUSD (тики). Похоже, что идея с нормализацией здрава и это позволяет заметно понизить размерность входных данных.

 
Neutron:

Осталось затолкать это в НС и выяснить, как зависит ФР длинны прогнозируемого движения (зелёного вектора минус Н) от величины левой грани. Вот только, коллеги, НС для решения этой задачи не очень нужна. Или я что-то упускаю?

P.S. На рис. справа показана ФР отношения сторон ЗЗ при одной вершине. Это построения Н=5,10,15 и 20 пунктов для EURUSD (тики). Похоже, что идея с нормализацией здрава и это позволяет заметно понизить размерность входных данных.


Я тоже думаю, что НС для этого не нужна. И вариант нормализации кажется правомерным, мне такое в голову не приходило.
 

Neutron

Никак не могу понять что Вы построили. ФР (функция распределения) должна выглядить немного не так https://ru.wikipedia.org/wiki/%D0%A0%D0%B0%D1%81%D0%BF%D1%80%D0%B5%D0%B4%D0%B5%D0%BB%D0%B5%D0%BD%D0%B8%D0%B5_%D0%B2%D0%B5%D1%80%D0%BE%D1%8F%D1%82%D0%BD%D0%BE%D1%81%D1%82%D0%B5%D0%B9

Может это ПВ (плотность вероятности) ?. Если да то можно еще раз, чуть подробнее, что жэ это на правом графике (что по оси X и Y)

 

to Prival

Мы провели серию из n вычислений (длина правой стороны Зиг-Зага, выраженой в единицах длины левой стороны) и получили некоторый набор значений х1,...,xi,...,xn. Это - так называемая выборка. По оси абсцисс будем откладывать полученные в отдельных вычислениях значения xi величины х. Разобъём ось х на равные интервалы dx и подсчитаем число вычислений nk, в результате которых значения х, лежащие в интервале xk+-1/2dx (здесь xk - координата центра интервала на оси Х). На каждом интервале построим прямоугольник высотой nk и шириной dx. Диаграмму, полученную таким образом, называют гистограммой. Она отражает плотность распределения результатов вычисления по оси Х.

Если число вычислений велико, то ширину интервала можно сделать малой (при этом в каждом интервале будет ещё достаточно много отсчётов). Тогда в пределе вместо гистограммы мы получим график, на котором по оси ординат отложена величина пропорциональная доле числа отсчётов nk/n, попадающих в каждый интервал. Такой график называют кривой распределения или функцией распределения, а саму функцию называют плотностью вероятности.

P.S. ФР бывает нормированной, тогда интеграл от неё по всей области определения тождественно равен 1.

 

Neutron

Спасибо. Теперь понятно. Только Вы всетаки построили плотность вероятности (ПВ), а не ФР (функцию распределения), т.к. ФР имеет 3 свойства. 1. Она (ФР) не убывающая. 2. если x стремиться к бесконечности, то ФР стремиться к 1. Естественно если все нормированно. ПВ и ФР связаны друг с другом интегралом (ФР есть интеграл от ПВ)

Фраза "Такой график называют кривой распределения или функцией распределения, а саму функцию называют плотностью вероятности. " не совсем корректна

Причина обращения: