Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 1436

 
govich:

Да что Вы мучаете софт с прошлого века, на киберфоруме предложили вариант в пятеро быстрее

Круто, но это пока что сложновато для меня. А так, немного поигравшись с Нейропро, пришел к выводу, что она не сможет найти закономерности в рыночных котировках даже если они там действительно имеются, из-за подгонки на обучающем участке на максимальную прибыль (то есть на процент правильных прогнозов).

В итоге сетка молотит сделки на каждом баре, а в реальности она должна пропускать часть сделок, когда нам нужно торговать  какой-то паттерн.

 
Примеры проектов R - Visual Studio
Примеры проектов R - Visual Studio
  • 2018.01.24
  • kraigb
  • docs.microsoft.com
Индекс коллекции примеров для начала работы с R и Visual Studio.
 

Тоже вариант.  Собственно, инструментарий не так  важен, можно и в R реализовать. Другое дело, что насколько я понял, на реальных данных машинное обучение прекрасно работает, а на котировках не очень.

 
Думается мне, что некисло бы было наряду с ценой (ретурном) прореженного тикового ряда совать в нейросеть время между двумя последовательными событиями.
 
Alexander_K:
Думается мне, что некисло бы было наряду с ценой (ретурном) прореженного тикового ряда совать в нейросеть время между двумя последовательными событиями.

По моему Вы слишком увлеклись прореживанием тиков. По сути Вы ловите не какую то дополнительную ХФТ информацию, а специфику агрегации-фильтрации-искажения от отдельных ДЦ. Кроме того чистые тики(цена сделки) не очень годны как показатель цены, так как имеют сильную обратную автокорреляцию первого лага, на высоких частотах, по очевидной причине(цена бьётся то в бид то в аск). Для более равномерной цены в ХФТ, берут среднюю бид\аск со стакана, а ещё лучше средневзвешенную по объёму(когда он есть) в стакане.

 
Alexander_K:
Думается мне, что некисло бы было наряду с ценой (ретурном) прореженного тикового ряда совать в нейросеть время между двумя последовательными событиями.

никаких ретурнов отныне, в личку скинул как лучше, почитайте на досуге )

 
Maxim Dmitrievsky:

никаких ретурнов отныне, в личку скинул как лучше, почитайте на досуге )

Ага. Читаю по-маленьку.

 
Alexander_K:

Ага. Читаю по-маленьку.

по карйней мере, в том процессе я увидел как стационарность так и наличие взаимной информации с исходным рядом. Существуют некоторые выбросы, которые также можно как-то пофиксить наверное, но там уже вам видней

формулЕ простая, на mql переписал

 

долго не мог понять, но похоже что оно. Алглиб лес склонен к переобучению при увеличении размера выборки, т.к. это безостановочная байда. Так, при умеренном размере выборки может давать неплохую обобщающую способность, но при увеличении выборки, кол-во сплитов зашкаливает и там без прунинга получается просто запоминалка. Т.е. при увеличении выборки необходим прунинг.

Пока не смотрел как это работает в новой версии на их сайте. Возможно, этот недостаток как раз и пофикшен

 
Maxim Dmitrievsky:

долго не мог понять, но похоже что оно. Алглиб лес склонен к переобучению при увеличении размера выборки, т.к. это безостановочная байда. Так, при умеренном размере выборки может давать неплохую обобщающую способность, но при увеличении выборки, кол-во сплитов зашкаливает и там без прунинга получается просто запоминалка. Т.е. при увеличении выборки необходим прунинг.

Пока не смотрел как это работает в новой версии на их сайте. Возможно, этот недостаток как раз и пофикшен

При этом прунинг должен контролировать полноту, т.е. резать до охвата выборки не менее 0,5-1%.

Причина обращения: