От теории к практике - страница 252

 
Andrei:
А вообще откуда взялся постулат что процесс цен немарковский? Как раз ведь выполняется условие марковского процесса, что будущее не зависит от прошлого при фиксированном настоящем...

ну из тяжелых хвостов, типа не случайный а с памятью

 
Maxim Dmitrievsky:

ну из тяжелых хвостов, типа не случайный а с памятью

марковский процесс может быть с памятью и внутренними состояниями, так что это не должно быть проблемой..
 
Maxim Dmitrievsky:

но из VisSim его походу не выковырять теперь )

Так ведь есть конверторы кода из VisSim на Си.. ))

 
Andrei:
марковский процесс может быть с памятью и внутренними состояниями, так что это не должно быть проблемой..

ну как, там же есть просто состояния и вероятности перехода, в каждом новом состоянии на переход будет влиять только текущая вероятность, а память о предыдущем шаге стирвается

а про описание немарковских я не сильно понимаю, там чето сложненько все ) 

 
Maxim Dmitrievsky:

ну как, там же есть просто состояния и вероятности перехода, в каждом новом состоянии на переход будет влиять только текущая вероятность, а память о предыдущем шаге стирвается

Так и есть, память вносится в текущее состояние, поэтому предыдущее уже и не нужно, хотя оно всегда есть если нужно для расчетов....

Относительно будущего перехода разумеется всё равновероятно, но даже если нет, то это можно учесть в метриках перехода...

 
Andrei:

Так и есть, память вносится в текущее состояние, поэтому предыдущее уже и не нужно, хотя оно всегда есть если нужно для расчетов....

Относительно будущего перехода разумеется всё равновероятно, но даже если нет, то это можно учесть в метриках перехода...

ну делают всякие temporal difference и стохастические модели, но я в этом слабо шарю и только начинаю изучать

например, можете посмотреть про q-learning в машинном обучении, там есть как стационарные так и нестационарные модели на временной разнице, t-tn, о которых Александр писал, только подход с другой стороны. И самое сложное это применять их к непрерывным процессам как рынки, с дискретными все более-менее ясно

 
Maxim Dmitrievsky:

например, можете посмотреть про q-learning в машинном обучении, там есть как стационарные так и нестационарные модели на временной разнице, t-tn, о которых Александр писал, только подход с другой стороны

Мне кажется дискретные скрытые марковские модели и алгоритмы более релевантны для данной задачи потому что знать саму модель не обязательно, что делает это похожим на нейронные сети...

Уравнение диффузии и броуновского движения уж совсем выглядит притянутым за уши... Рынок очевидно далеко не броуновский))

 
Andrei:

Мне кажется дискретные скрытые марковские модели и алгоритмы более релевантны для данной задачи потому что знать саму модель не обязательно, что делает это похожим на нейронные сети...

Уравнение диффузии и броуновского движения уж совсем выглядит притянутым за уши... Рынок очевидно далеко не броуновский))

Ну в общем надо много работать и... думать :) это мое, так сказать, что так сказать..


 

Вы меня конечно простите. Но вам не кажется, что вы все перемудрили тут. Кажется тут соревнование проходит кто умнее другого. Вот вам самый простой индюк, Заходите лотом удобным для вас, прошли 10 пунктов в сделке, закрыли половину , а остальное в БУ. И будет вам счастье. И голова не болит )))


 
Aleksandr Yakovlev:

Вы меня конечно простите. Но вам не кажется, что вы все перемудрили тут. Кажется тут соревнование проходит кто умнее другого. Вот вам самый простой индюк, Заходите лотом удобным для вас, прошли 10 пунктов в сделке, закрыли половину , а остальное в БУ. И будет вам счастье. И голова не болит )))

Творческий процесс, понимаешь...


Причина обращения: