Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 550

 
Maxim Dmitrievsky:

ну как бы да, это же не какие-то готовые эконом. модели а просто набор инструментов универсальных для любых областей

непараметрическая эконометрика как раз про МО и нечеткую логику, но я пока не видел каких-то внятных вещей, мб потому что не выработаны какие-то общие подходы. Ну кроме тех что запихать в  DNN побольше индикаторов и получить непонятно что не понятно как работающее :)

Боюсь накаркать, Максим, но, мое мнение - нейросети неприменимы в том виде, о котором я прочитал тут в статьях. Вы же работаете с самой ценой, хоть и нормализуете ее, а надо работать с плотностью вероятности цены. Здесь и кроется неустранимое противоречие с принципом неопределенности Гейзенберга. Но, не буду мешать - все равно интересно.
 
Alexander_K2:
Боюсь накаркать, Максим, но, мое мнение - нейросети неприменимы в том виде, о котором я прочитал тут в статьях. Вы же работаете с самой ценой, хоть и нормализуете ее, а надо работать с плотностью вероятности цены. Здесь и кроется неустранимое противоречие с принципом неопределенности Гейзенберга. Но, не буду мешать - все равно интересно.

Вы и не мешаете, пишите что хотите - этож паблик. И до распределений Ваших тоже доберемся, не все сразу, пока есть ряд своих "неописуемых" идей :D

У меня вообще пляска пошла только из-за того что нужно было получить значимость фичей для ЛР и RF через питон или Р, потом что-то увлекся и начал дальше изучать

есть бот на НС которому надо периодически подсовывать "хорошие признаки" на автомате, с учетом меняющегося рынка, а в остальном он ниче так работает.. периодами 

 
Maxim Dmitrievsky:

Вы и не мешаете, пишите что хотите - этож паблик. И до распределений Ваших тоже доберемся, не все сразу, пока есть ряд своих "неописуемых" идей :D

У меня вообще пляска пошла только из-за того что нужно было получить значимость фичей для ЛР и RF через питон или Р, потом что-то увлекся и начал дальше изучать

есть бот на НС которому надо периодически подсовывать "хорошие признаки" на автомате, с учетом меняющегося рынка, а в остальном он ниче так работает.. периодами 


Максим что там с советником вашим? Где можно тесты глянуть или засекречено всё?

 

https://github.com/RandomKori/Py36MT5 Вот исходники библиотеки Питон для МТ5. Только вот проблема с массивами. Передача массива или его получение работает неправильно. Код DLL отладил в Visual Studio. В нем все работает. Вопрос в том что это может быть баг терминала. Как работать с библиотекой не писал. Смысла нет. Без массивов это никому не нужно. Хотя может быть напортачил в файле pythom.mqh Помогите разобраться. Всем польза будет.

 

Вещественные массивы работают как надо. Не работают массивы лонг.

 

Заменил лонг на инт. Теперь все работает. Библиотекой можно пользоваться. Только коментарии по использованию напишу.

 
geratdc:

Максим что там с советником вашим? Где можно тесты глянуть или засекречено всё?


Делаю все лучше и лучше.. но медленно из-за сложности темы

 

Некоторые наблюдения\размышления о том как правильно строить модель для рынка (из опыта):

Для нейросетевых классификаторов: обязательна балансировка классов, кол-во примеров для 2-х и более классов должно быть обязательно сбалансировано. Если модель обучается на трендовом участке то можно отзеркалить сигналы и добавить противоположных примеров. При этом признаки совершенно не обязательно должны коррелировать с целевой, что и понятно.

Для нейросетевых регрессоров: хотя бы один признак обязательно должен сильно коррелировать с целевой, тем более когда модель обучается ценам на выходе. Если этого не сделать, то регрессор запутается в 3-х соснах и не сможет правильно спрогнозировать цену если в выборке имеются повторяющиеся или похожие примеры, но с разными ценами на выходе. Для этого можно, в дополнение к остальным фичам, подать нормированные приращения с большим лагом (больше 50), и чем больше обуч. выборка тем больше нужен лаг, что бы исключить повторяющиеся варианты. Также желательно подать несколько таких серий с приращениями со сдвигом относительно друг друга, тогда каждый отдельный случай будет почти однозначно интерпретироваться.

Для случайных лесов как классификаторов: то же самое что для НС.

Для случайных лесов как регрессоров: почти бесполезное занятие, то же самое что для НС, но невозможно на выход давать цены (т.к. леса не экстраполируют), а если давать для этих целей приращения то леса запутаются в 3-х соснах т.к. получится много пересекающихся примеров.

 
Maxim Dmitrievsky:

Некоторые наблюдения\размышления о том как правильно строить модель для рынка (из опыта):

Для нейросетевых классификаторов: обязательна балансировка классов, кол-во примеров для 2-х и более классов должно быть обязательно сбалансировано. Если модель обучается на трендовом участке то можно отзеркалить сигналы и добавить противоположных примеров. При этом признаки совершенно не обязательно должны коррелировать с целевой, что и понятно.



Прямо противоположное мнение. Имею доказательства вплоть до работы на реале. Для меня понятно одно, что строить классификацию на кофейной гуще и кольцах Сатурна нельзя, НИКОГДА - это шаманство. Модели вне выборки дают примерно такой же результат как в-выборке только если почистить входной набор предикторов от шума и оставить только те, которые имеют отношение к целевой переменной. Более того, у меня имеется алгоритм очистки от шума, а результаты вычислений для оставшихся предикторов дают предельную ошибку, с которой будет классификация для этого набора предикторов.

 
СанСаныч Фоменко:

Прямо противоположное мнение. Имею доказательства вплоть до работы на реале. Для меня понятно одно, что строить классификацию на кофейной гуще и кольцах Сатурна нельзя, НИКОГДА - это шаманство. Модели вне выборки дают примерно такой же результат как в-выборке только если почистить входной набор предикторов от шума и оставить только те, которые имеют отношение к целевой переменной. Более того, у меня имеется алгоритм очистки от шума, а результаты вычислений для оставшихся предикторов дают предельную ошибку, с которой будет классификация для этого набора предикторов.


для меня этот вопрос вообще не очевиден, если получается нелинейный классификатор.. что там с чем должно коррелировать? ) а если у нас категориальные признаки - то регрессия вообще не получится, а вот классификация - да

а вот для регрессии это оправдано

Причина обращения: