"Новый нейронный" - проект Open Source движка нейронной сети для платформы MetaTrader 5. - страница 96

 
Alexander_K:

Максим, до тех пор, пока на вход нейросети не будет подаваться время между значениями ВР, и сетка не вычислит циклы рынка (а они есть, уверяю тебя) - ничего не получится. Искать надо на выборках от торговой сессии до года. Выборка должна строго соответствовать временному периоду и никак иначе.

Именно во временной структуре и есть отличие рыночного ВР от СБ, я это уже неоднократно писАл.

Именно так, но общий подход с ракурса МО к этому я пока не сформулировал :)

кстати, может ли подойти как замена Херсту? https://en.wikipedia.org/wiki/Sample_entropy

или тоже запаздывающий

Sample entropy - Wikipedia
  • en.wikipedia.org
Sample entropy (SampEn) is a modification of approximate entropy (ApEn), used for assessing the complexity of physiological time-series signals, diagnosing diseased states.[1] SampEn has two advantages over ApEn: data length independence and a relatively trouble-free implementation. Also, there is a small computational difference: In ApEn, the...
 
Andrey Dik:

скажем так - "Почти не работает"... а вот оставшееся от целого "Не работает" и остаётся выциганивать по крохам.

оно даже выцыганивается иногда, но не на всю глубину выборки

 
Dmitry Fedoseev:

Ничем не отличается. Обычная функция. На входе один параметр, на выходе одно значение. 

Ясно. Спс. 
Продолжу свою логическую разведку. Значит, "слой нейронов" это типа комплекса однотипных функций, каждая из которых обрабатывает одно значение подаваемое на вход и выводит один результат? Или результат каким то образом подготавливают все "нейроны" комплекса?
 
Реter Konow:
Ясно. Спс. 
Продолжу свою логическую разведку. Значит, "слой нейронов" это типа комплекса однотипных функций, каждая из которых обрабатывает одно значение подаваемое на вход и выводит один результат? Или результат каким то образом подготавливают все "нейроны" комплекса?

Да. Но только вот это одно значение, подаваемое на вход одного нейрона, складывается из выходов всех нейронов предыдущего слоя (складываются с умножением на коэффициенты). 

 
Maxim Dmitrievsky:

Именно так, но общий подход с ракурса МО к этому я пока не сформулировал :)

кстати, может ли подойти как замена Херсту? https://en.wikipedia.org/wiki/Sample_entropy

или тоже запаздывающий

Возможно. С моей точки зрения, энтропия процесса - идеальный индикатор разладки. Должен быть. Но, нужны исследования, а мне уже лень - пусть другой теперь кто-нить пыжится.

Что касается времени... На рынке есть периодичность процессов как вложенная структура. Вот только вычислить эти периоды нелегко. У Ганна были свои, у меня почему-то получились свои. Хз... Будем смотреть на практике... Но, пока я не стал работать с конкретными временными периодами, у меня ТС работала в +0% прибыли как на СБ.

 
Alexander_K:

Возможно. С моей точки зрения, энтропия процесса - идеальный индикатор разладки. Должен быть. Но, нужны исследования, а мне уже лень - пусть другой теперь кто-нить пыжится.

Что касается времени... На рынке есть периодичность процессов как вложенная структура. Вот только вычислить эти периоды нелегко. У Ганна были свои, у меня почему-то получились свои. Хз... Будем смотреть на практике... Но, пока я не стал работать с конкретными временными периодами, у меня ТС работала в +0% прибыли как на СБ.

поисследую чутка )) код простой

кластеризация волатильности - это то, что отличает эффективный (подчеркну) рынок от СБ, да, только в этом периодичность, наверное. А она, как раз, к временным циклам и привязана

по крайней мере, это общее мнение (или заблуждение) эконометристов
 
Dmitry Fedoseev:

Да. Но только вот это одно значение, подаваемое на вход одного нейрона, складывается из выходов всех нейронов предыдущего слоя (складываются с умножением на коэффициенты). 

Ок. Нужно найти практическую аналогию. На схеме видно, что слои имеют разное количество нейронов. Если перевернуть схему, получится пирамида. Значит, результат проходит несколько этапов обработки. Чем больше нейронов в слое, тем больше данных этот слой принимает и обрабатывает. Если следующий слой выводит меньше данных чем предыдущий,  то значит данные обобщаются от слоя к слою?
 
Реter Konow:
Ок. Нужно найти практическую аналогию. На схеме видно, что слои имеют разное количество нейронов. Если перевернуть схему, получится пирамида. Значит, результат проходит несколько этапов обработки. Чем больше нейронов в слое, тем больше данных этот слой принимает и обрабатывает. Если следующий слой выводит меньше данных чем предыдущий,  то значит данные обобщаются от слоя к слою?

прикинь.. а пирамиды строили древние.. поищи аналогии там

 
Maxim Dmitrievsky:

поисследую чутка )) код простой

код простой, но наши входные данные то не совсем подходят:

Вики энтропия: "....меры отклонения реального процесса от идеального. ... Математически энтропия определяется как функция состояния системы, определённая с точностью до произвольной постоянной."

и?

что на фин.ВР может быть идеальным рынком? - да фиг его знает, ОК пусть это первое допущение, идеальный рынок = синусоиде!

в качестве входных данных у нас как минимум 3 цены хай, лоу, клоуз - и кого будем использовать? - ОК, пусть это второе допущение, медианная цена рулит!

откуда и до куда измерять? - начало дня? недели? день экспирации? торговая сессия? - ОК, начало дня, пусть это будет третье допущение....

итого 3 вопроса, 3 раза предполагаем, что мы правы? тут задача сведется к комбинаторике: сколько раз мы выдвенем правильную начальную гиппотезу и сколько раз наше дальнейшие изыскания приведут к правильной оценке рынка... на истории )))


энтропия красиво звучит, но копал я эту тему несколько лет назад, с позиции информационной энтропии, вывод один - если начинает формироваться или ближайший на истории повтор свечных комбинаций (паттерн) - он не сработает, ибо то что очевидно всем не работает на рынке, так же и с закономерностями и с корреляциями, только они становятся очевидными - они перестают появляться )))), обычно в таких случаях я себе говорю - не один ты самый умный, таких умны полмира у мониторов сидит )))

 
Реter Konow:
Ок. Нужно найти практическую аналогию. На схеме видно, что слои имеют разное количество нейронов. Если перевернуть схему, получится пирамида. Значит, результат проходит несколько этапов обработки. Чем больше нейронов в слое, тем больше данных этот слой принимает и обрабатывает. Если следующий слой выводит меньше данных чем предыдущий,  то значит данные обобщаются от слоя к слою?

если в слое нейронов меньше чем в предыдущем - происходит сжатие информации, и, "распаковка" - если нейронов больше чем в предыдущем.

Причина обращения: