Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 489
Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
Я тоже балдею. Пробовал на случайных выборках - результаты поражают воображение. ТС пока не делал.
Максим говорит - обучение долгое. У меня около 23 часов. Но даже если 1 раз в 3 месяца - фигня какая.)
А на 3 мес его точно хватает, дальше не проверялось.
Не пока в такие дебри не лез. Советник не сложный, за часов 12 прооптимизировался и потом забыл про него. Сегодня прогнал с теми настройками.
Не пока в такие дебри не лез. Советник не сложный, за часов 12 прооптимизировался и потом забыл про него. Сегодня прогнал с теми настройками.
Да, форвард хреноватенький. У меня на форварде (случайная выборка) 6% неудачных сделок. Сеть - 5 слоев, 50 нейронов.
А у Вас какая?
Сегодня решил проверить, свою сеть на основе перпцетрона. Оптимизировал до мая-начало июня 2016, EURUSD, спред 15 пунктов.
сам хвостик
Вообщем пока в замешательстве от результата.
волк-форвард нужен, нельзя так оптимизировать, форвард всегда будет плохим (или случайным) в данном случае, в зависимости от того в какую фазу рынка попадете, у меня уже куча версий таких систем-миллиардников на бэктесте, которые на форварде как монетка работают ) это и называется переподгонка
Да, форвард хреноватенький. У меня на форварде 6% неудачных сделок. Сеть - 5 слоев, 50 нейронов.
А у Вас какая?
Три слоя, в каждом по 9 нейронов. На картинке участок очень длинный с 2004 по 2016. Целеноправленно выбирал длинную историю, чтобы проверить, будет ли стабильный результат, на всем промежутке. Вообщем двояко просадка на форварде самая большая получилась, но с другой стороны бот начал зарабатывать на второй половине форварда.
волк-форвард нужен, нельзя так оптимизировать, форвард всегда будет плохим (или случайным) в данном случае, у меня уже куча версий таких систем-миллиардников на бэктесте, которые на форварде как монетка работают ) это и называется переподгонка
Посмотрим, еще через пол-года.
Посмотрим, еще через пол-года.
попробуйте постоянно чекать ошибку НС при поступлении новых данных (на тестовой выборке), если ошибка увеличилась на заданный% то переобучать НС автоматически, и так на всем периоде бэктеста.. но для этого нужно быстрое обучение, но и большой обучающий сет уже не нужен. Короче использовать НС как внутренний оптимизатор
я сейчас пытаюсь статью написать по такой схеме, мб скоро допишу
попробуйте постоянно чекать ошибку НС при поступлении новых данных (на тестовой выборке), если ошибка увеличилась на заданный% то переобучать НС автоматически, и так на всем периоде бэктеста.. но для этого нужно быстрое обучение, но и большой обучающий сет уже не нужен. Короче использовать НС как внутренний оптимизатор
я сейчас пытаюсь статью написать по такой схеме, мб скоро допишу
с уважением.
попробуйте постоянно чекать ошибку НС при поступлении новых данных (на тестовой выборке), если ошибка увеличилась на заданный% то переобучать НС автоматически, и так на всем периоде бэктеста.. но для этого нужно быстрое обучение, но и большой обучающий сет уже не нужен. Короче использовать НС как внутренний оптимизатор
я сейчас пытаюсь статью написать по такой схеме, мб скоро допишу
Просьба пишите описание мат аппарата, для чайников. Я начал читать, а вот, что такое Сугено, Мамдани ни фига понять не смог)
Что-то вроде, как в статье про найвный байесовский классификатор.https://www.mql5.com/ru/articles/3264
быстрая оптимизация в статье будет? хотелось бы взглянуть.
с уважением.
да, через случайные леса, очень быстрая
Просьба пишите описание мат аппарата, для чайников. Я начал читать, а вот, что такое Сугено, Мамдани ни фига понять не смог)
Что-то вроде, как в статье про найвный байесовский классификатор.https://www.mql5.com/ru/articles/3264
Так полно инфы в интернете :) там 7 стадий, они достаточно объемные для описания, а дал ссылки. Мамдани от Сугено отличаются только логическим выводом (нелинейный и линейный)
просто не вижу смысла кописпастить одно и то же