Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 738
Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
Основа у Михаила нормальная. Хороший пример для тех кто ищет с чего начать.
У него есть какие-то хорошие индикаторы, вроде даже с биржи, это уже лучше чем стандартные машка и рсишка. Далее он не просто пихает это всё в нейронку, а разными средствами оценивает важность индикаторов и выбирает самые подходящие для предсказания. Потом обучается нейронка, но не простая, а со встроенным контролем оверфита. И вся эта стратегия валк-форвардом тестится в тестере.
СанСаныч похожую схему уже в начале этой темы описал, наконец кто-то ещё решился по ней работать. А то многим лишь бы побольше индикаторов в нейронку напихать и не думать.
Я бы ещё предобработку индикаторов сделал через vtreat или caret. И более адекватную нейронку с кфолдом. И примеров для обучения взял бы побольше, согласен с остальными критикующими.
Знамо так, Братци!!! Отвечу сразу всем... Каждый пляшет в меру своей образованности, НО разрешит наш спор конечный результат. Итог так сказать. Я пока побеждаю, потому как депозит растёт. Знамо мой подход один из верны.
Кстати я именно vtreat-ом и отбераю важные предикторы + фокусы с перестановкой.
В статье про БО будет об этом подробно рассказано.
Знамо так, Братци!!! Отвечу сразу всем... Каждый пляшет в меру своей образованности, НО разрешит наш спор конечный результат. Итог так сказать. Я пока побеждаю, потому как депозит растёт. Знамо мой подход один из верны.
Кстати я именно vtreat-ом и отбераю важные предикторы + фокусы с перестановкой.
В статье про БО будет об этом подробно рассказано.
Выше Вы писали о взаимной информации. Она при чем?
Выше Вы писали о взаимной информации. Она при чем?
Решиющий критерий при выборе какую модель использовать. Подготавливает дитисет. Тренируем 10 раз. Получаем 10 моделей с одинаковыми результатами обучения (как пример), где количество ошибок при обучении у всех моделей одинаково. Далее сохраняем результаты работы моделей на участке обучения не в бинарном виде, а в дабле. Результат расчёта полинома ведь у нас в дабле считается изначально......
Далее считаем ВИ полиномов по отношению к выходу. Рабочими моделями считаются именно те у которых показатель ВИ выше энтропии выхода ну или тупо больше 0.7 примерно....
Выбираем ту модель у которой ВИ высокое, но не выше 0.95. Хотя это я ещё точно не проверял.... ИМХО
По поводу увеличения обучающей выборки. Да её можно увеличить, но при этом снизится качество сети, которое приводит к уменьшению сделок. Сеть начинает работать дольше по времени, но при этом количество состояний "Не знаю" увеличивается и получается что сеть ходит реже. При таком подходе необходимо тренировать несколько моделей и запускать их параллельно.
Тем более что период обучения сейчас мне диктует vtreat.R. Который с моими входными данными предлагает мне наборы входов для разной длинны выборки. Я выбираю максимальный период обучения при максимальном количество входных переменных, которые он выбрал....И как ни странно, это крутится от 20 до 50 семплов. Видать входные данные у меня такие. Что тут поделаешь...
Mihail Marchukajtes:
...
Решающий критерий при выборе какую модель использовать
...
Попробую перевести на язык МО:
У Михаила модель хоть и классификационная, но она может возвращать результат не только бинарно 0 и 1, но и вероятность принадлежности к классу (дробное число от 0 до 1). Поэтому модель можно оценить не только классификационными, но и регрессионными метриками. Не знаю почему выбор пал именно на взаимную информацию, но она хорошо коррелирует с МНК, так что нормально.
В R её можно например так посчитать -
library(entropy)
mi.plugin(rbind(target,prediction))
Здесь чем результат меньше тем лучше.
Разумеется, но в статистике ошибка(вариация) пропорциональна 1/sqrt(N) где N - число наблюдений, тут всё зависит от изначальной вариации, чем она больше тем больше нужно наблюдений чтобы ошибку уместить в 5% квантиль
"Ищи того кому это выгодно"((с) В.И. Ленин)
В паблик выкладывают и продают, только бесполезные или даже вредные тулзы, по очевидным причинам, об этой тривиальной истине всегда нужно помнить, алготрейдинг это не вебдизайн и не какаянибуть франшиза, это прямой функциональный отъём бабла с рынка, всё что открыто и легко доступно, а тем более рекламируется, априори не может быть полезным в этом контексте, старьё или кидалово, такая агрессивная и конкурентная у нас среда.
Ну да, 5 перцентиль выигрыша и бескрайнее обилие общедоступного тулза - Клондайк.
А мне тут недавно, под заказ пришлось делать авторский, нейросетевой компонент, который при проверке, аж на три порядка обошел навороченную DNN из TensorFlow.
И главное, что там небыло никакой сложной математики или раскрученных технологий, довольно простое, правда оригинальное решение.
На фоне этого, приверженность Михаила к авторской разработке Решетова, лично у меня совсем не вызывает удивления.
Так я о о том же, только про это. Я если возьму через свою инфраструктуру пропущу 40 сэмплов тоже за результат не ручаюсь, да и 4000 точек очень мало. Если конечно говорить про боевые стратегии, а не про статейные.
Я придерживаюсь такого эмпирического правила - советник на новых данных будет работать не более 10% от баров тренировки. Если обучал на 4000 барах - значит будет работать не более 400. Например если хочу поторговать неделю на m15, то надо хотя-бы 4800 (4*24*5*10, 10 недель) бар истории для тренировки.
Когда-нибудь в МТ5 введут параллельные потоки в экспертах, чтоб можно было оптимизировать советник постоянно на фоне, тогда можно будет делать интересные эксперименты с экстремально малым числом бар, может и я на 40 барах смогу. Хотя наверное не смогу. У меня даже если меньше 1000 примеров обучения то результат нейронки перекашивается в сторону тренда, и как только он меняется - всё плохо.
По поводу увеличения обучающей выборки. Да её можно увеличить, но при этом снизится качество сети, которое приводит к уменьшению сделок. Сеть начинает работать дольше по времени, но при этом количество состояний "Не знаю" увеличивается и получается что сеть ходит реже. При таком подходе необходимо тренировать несколько моделей и запускать их параллельно.
Тем более что период обучения сейчас мне диктует vtreat.R. Который с моими входными данными предлагает мне наборы входов для разной длинны выборки. Я выбираю максимальный период обучения при максимальном количество входных переменных, которые он выбрал....И как ни странно, это крутится от 20 до 50 семплов. Видать входные данные у меня такие. Что тут поделаешь...
хмм.. добрый день!)
а слово "курвафиттер" - это что то нейронное?