Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 738

 

Основа у Михаила нормальная. Хороший пример для тех кто ищет с чего начать.

У него есть какие-то хорошие индикаторы, вроде даже с биржи, это уже лучше чем стандартные машка и рсишка. Далее он не просто пихает это всё в нейронку, а разными средствами оценивает важность индикаторов и выбирает самые подходящие для предсказания. Потом обучается нейронка, но не простая, а со встроенным контролем оверфита. И вся эта стратегия валк-форвардом тестится в тестере.

СанСаныч похожую схему уже в начале этой темы описал, наконец кто-то ещё решился по ней работать. А то многим лишь бы побольше индикаторов в нейронку напихать и не думать.

Я бы ещё предобработку индикаторов сделал через vtreat или caret. И более адекватную нейронку с кфолдом. И примеров для обучения взял бы побольше, согласен с остальными критикующими.

 

Знамо так, Братци!!! Отвечу сразу всем... Каждый пляшет в меру своей образованности, НО разрешит наш спор конечный результат. Итог так сказать. Я пока побеждаю, потому как депозит растёт. Знамо мой подход один из верны.

Кстати я именно vtreat-ом и отбераю важные предикторы + фокусы с перестановкой.

В статье про БО будет об этом подробно рассказано.

 
Mihail Marchukajtes:

Знамо так, Братци!!! Отвечу сразу всем... Каждый пляшет в меру своей образованности, НО разрешит наш спор конечный результат. Итог так сказать. Я пока побеждаю, потому как депозит растёт. Знамо мой подход один из верны.

Кстати я именно vtreat-ом и отбераю важные предикторы + фокусы с перестановкой.

В статье про БО будет об этом подробно рассказано.

Выше Вы писали о взаимной информации. Она при чем?

 
СанСаныч Фоменко:

Выше Вы писали о взаимной информации. Она при чем?

Решиющий критерий при выборе какую модель использовать. Подготавливает дитисет. Тренируем 10 раз. Получаем 10 моделей с одинаковыми результатами обучения (как пример), где количество ошибок при обучении у всех моделей одинаково. Далее сохраняем результаты работы моделей на участке обучения не в бинарном виде, а в дабле. Результат расчёта полинома ведь у нас в дабле считается изначально......

Далее считаем ВИ полиномов по отношению к выходу. Рабочими моделями считаются именно те у которых показатель ВИ выше энтропии выхода ну или тупо больше 0.7 примерно....

Выбираем ту модель у которой ВИ высокое, но не выше 0.95. Хотя это я ещё точно не проверял.... ИМХО

 

По поводу увеличения обучающей выборки. Да её можно увеличить, но при этом снизится качество сети, которое приводит к уменьшению сделок. Сеть начинает работать дольше по времени, но при этом количество состояний "Не знаю" увеличивается и получается что сеть ходит реже. При таком подходе необходимо тренировать несколько моделей и запускать их параллельно.


Тем более что период обучения сейчас мне диктует vtreat.R. Который с моими входными данными предлагает мне наборы входов для разной длинны выборки. Я выбираю максимальный период обучения при максимальном количество входных переменных, которые он выбрал....И как ни странно, это крутится от 20 до 50 семплов. Видать входные данные у меня такие. Что тут поделаешь...

 

Mihail Marchukajtes:

...

Решающий критерий при выборе какую модель использовать

...

Попробую перевести на язык МО:

У Михаила модель хоть и классификационная, но она может возвращать результат не только бинарно 0 и 1, но и вероятность принадлежности к классу (дробное число от 0 до 1). Поэтому модель можно оценить не только классификационными, но и регрессионными метриками. Не знаю почему выбор пал именно на взаимную информацию, но она хорошо коррелирует с МНК, так что нормально.

В R её можно например так посчитать -
library(entropy)
mi.plugin(rbind(target,prediction))
Здесь чем результат меньше тем лучше.

 
toxic:

Разумеется, но в статистике ошибка(вариация) пропорциональна 1/sqrt(N) где N - число наблюдений, тут всё зависит от изначальной вариации, чем она больше тем больше нужно наблюдений чтобы ошибку уместить в 5% квантиль

"Ищи того кому это выгодно"((с) В.И. Ленин)

В паблик выкладывают и продают, только бесполезные или даже вредные тулзы, по очевидным причинам, об этой тривиальной истине всегда нужно помнить, алготрейдинг это не вебдизайн и не какаянибуть франшиза, это прямой функциональный отъём бабла с рынка, всё что открыто и легко доступно, а тем более рекламируется, априори не может быть полезным в этом контексте, старьё или кидалово, такая агрессивная и конкурентная у нас среда.

Ну да, 5 перцентиль выигрыша и бескрайнее обилие общедоступного тулза - Клондайк.

А мне тут недавно, под заказ пришлось делать авторский, нейросетевой компонент, который при проверке, аж на три порядка обошел навороченную DNN из TensorFlow.

И главное, что там небыло никакой сложной математики или раскрученных технологий, довольно простое, правда оригинальное решение.

На фоне этого, приверженность Михаила к авторской разработке Решетова, лично у меня совсем не вызывает удивления.

 
toxic:

Так я о о том же, только про это. Я если возьму через свою инфраструктуру пропущу 40 сэмплов тоже за результат не ручаюсь, да и 4000 точек очень мало. Если конечно говорить про боевые стратегии, а не про статейные.

Я придерживаюсь такого эмпирического правила - советник на новых данных будет работать не более 10% от баров тренировки. Если обучал на 4000 барах - значит будет работать не более 400. Например если хочу поторговать неделю на m15, то надо хотя-бы 4800 (4*24*5*10, 10 недель) бар истории для тренировки.

Когда-нибудь в МТ5 введут параллельные потоки в экспертах, чтоб можно было оптимизировать советник постоянно на фоне, тогда можно будет делать интересные эксперименты с экстремально малым числом бар, может и я на 40 барах смогу. Хотя наверное не смогу. У меня даже если меньше 1000 примеров обучения то результат нейронки перекашивается в сторону тренда, и как только он меняется - всё плохо.

 
Mihail Marchukajtes:

По поводу увеличения обучающей выборки. Да её можно увеличить, но при этом снизится качество сети, которое приводит к уменьшению сделок. Сеть начинает работать дольше по времени, но при этом количество состояний "Не знаю" увеличивается и получается что сеть ходит реже. При таком подходе необходимо тренировать несколько моделей и запускать их параллельно.


Тем более что период обучения сейчас мне диктует vtreat.R. Который с моими входными данными предлагает мне наборы входов для разной длинны выборки. Я выбираю максимальный период обучения при максимальном количество входных переменных, которые он выбрал....И как ни странно, это крутится от 20 до 50 семплов. Видать входные данные у меня такие. Что тут поделаешь...

Не кач-во сети снизится а оверфита будет меньше и твоя модель предстанет во всем ее блеске и нищете

У меня нейрон Решетова оптится за 3 мес 1000 + сделок на грамотных 3-х фичах, и то на реале работает в ноль. А другие нейроны оптятся ещё лучше. А ты продолжаешь нести какую-то дичь со своими 100 сделками, че тупишь то так, это типа самоуспокоение или кому-то доказать что-то курвафиттер ты непробиваемый
 

хмм.. добрый день!)

а слово "курвафиттер" - это что то нейронное? 

Причина обращения: