Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 1733

 
mytarmailS:

ну если по минутам закономерность "разлита"  рвано/не равномерно то думаю класстеризировать не стоит, пока как есть оставить и тестануть

обычно группируются по несколько мин. подряд

 
В общем организационно я на низком старте..... на доли думать, мечта детства. :-)))))
 
Maxim Dmitrievsky:

обычно группируются по несколько мин. подряд

делай как знаешь но сделай OOS

хочу глянуть

 
Такой вопрос к знатокам МО: известно, что можно научить НС узнавать вещь по изображению, но вещь должна быть в нормальном, собранном состоянии, а можно ли обучить НС распознавать сломанные предметы, как например, автомобиль после аварии, дом в процессе сноса, мебель после торнадо? Человек справляется на раз.
 
Реter Konow:
Такой вопрос к знатокам МО: известно, что можно научить НС узнавать вещь по изображению, но вещь должна быть в нормальном, собранном состоянии, а можно ли обучить НС распознавать сломанные предметы, как например, автомобиль после аварии, дом в процессе сноса, мебель после торнадо? Человек справляется на раз.

какая разница сломан дом или не сломан, сеть учиться тому что ее учат 

 
mytarmailS:

какая разница сломан дом или не сломан, сеть учиться тому что ее учат 

Исчерпывающе.)))

Дом всегда сломан по разному. Между целым домом и разрушенным есть большая разница. Если целый дом имеет несколько христоматийных образов, то разрушенный дом может выглядеть как угодно. И все же, человек его легко распознает.

Человек легко справляется с энтропией в изображении, а вот НС?

 

Я где-то (ибо забыл уже - где, т.к. больше месяца трейдингом не занимаюсь) показывал, что распределение вероятности рыночных приращений - это произведение СВ гауссовского и экспоненциального (или в общем случае - Эрланга) распределений.

Распределение Эрланга отвечает за интервалы времени между тиковыми котировками и генератор таких чисел выглядит так:

Здесь Lambda - интенсивность потока событий (котировок).

Если Lambda=const, то данный процесс - стационарный, но на рынке интенсивность потока разная в разные моменты времени, т.е. Lambda=f(t), что определяет нестационарность процесса в целом.

Т.о. чтобы выделить стационарный процесс, необходимо рассматривать отдельные участки ВР с одинаковой плотностью потока как единое целое.

Поэтому, попытки разбивать ВР на часы внутри суток, а потом эти часы "склеивать" между собой - однозначно имеют право на жизнь.

 
Реter Konow:

Исчерпывающе.)))

Дом всегда сломан по разному. Между целым домом ..

Ну да, и котики на картинке разные , но сеть их распознает и от собачек отличает как то...

Почитайте хоть что нибудь про принципы распознавания образов, про сверточные сети , как это работает итп.  У вас вопросы очень не зрелые , когда прочитаете то поймете их глупость

 
mytarmailS:

Ну да, и котики на картинка разные , но сеть их распознает и от собачек отличает как то...

Почитайте хоть что нибудь про принципы распознавания образов, про сверточные сети , как это работает итп.  У вас вопросы очень не зрелые , когда прочитаете то поймете их глупость

Ваши ответы тоже зрелостью не отличаются. Еще раз повторю: разрушенный предмет имеет слишком большие отличия от целого, и потому, энтропию  в его изображении нельзя побороть увеличивая обучающую выборку. Эта выборка может стать бесконечной или перепутается с другими выборками. Это даже мне очевидно.

 
Реter Konow:

Ваши ответы тоже зрелостью не отличаются. Еще раз повторю: разрушенный предмет имеет слишком большие отличия от целого, и потому, энтропию  в его изображении нельзя побороть увеличивая обучающую выборку. Эта выборка может стать бесконечной или перепутается с другими выборками. Это даже мне очевидно.

Очевидно да не очень видимо )) Если вы хотите обучить сеть распознавать разрушенный дом то обучаете ее на разрушенных домах.  А не даете ей целый дом и мудрствуете , а как же она будет представлять разрушенный дом...   Очевидно же!!

Это то же самое что я ответил с самого начала

mytarmailS:

какая разница сломан дом или не сломан, сеть учиться тому что ее учат 

Причина обращения: