Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 614
Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
Можно ли начать обучение именно с того чтобы торговать? Ведь риск того, что я солью счет, да и в этом я даже не сомневаюсь, очень велик.
Но Миха пообещал Яву одолеть, так что скоро блистать будет.
В советниках с маркета я тоже часто видел что хорошие для торговли параметры образуют плато в оптимизационной функции. Если там в параметрах есть например МА или RSI, или какой-то коэффициент то изменение параметра на небольшую величину не влияло на итоговый результат.
Но там это логично, большинство параметров там используются в формуле расчёта индикатора, поэтому небольшое изменение просто чуть-чуть повлияет результат, который всё равно будет посчитан на тех-же ценах.
А в машинном обучении наоборот - параметры могут лавинообразно влиять на весь ход обучения, и даже небольшое изменение приводит к совершенно другому результату. Например число нейронов в скрытом слое - при их увеличении вырастет и число используемых весов, и функция инициализации весов используя гпсч выставит им значения уже в чуть ином порядке, что приведёт к другому результату.
Изменение каких-то параметров тоже будет рисовать плато в оптимизационной функции, можно для каждого параметра изучить плавно или стохастически он влияет на итоговую оценку модели, и для плавно влияющих параметров дополнительно использовать оптимизитор на основе производных (функции optim(method="L-BFGS-B") и optimize() в R)
Это не маркет, вообще не маркет - это статистика с целым рядом тестов на устойчивость коэффициентов. Наиболее известный CUSUM.
Так может быть приведенная Вами чудовищная зависимость результата от параметров сети говорит об их принципиальной НЕ пригодности для финансовых рынков?
А может быть сначала надо сконструировать нечто соответствующее цели (трактор - тут модно, или ракету), а потом рассуждать об устойчивости того, что получилось?
Но по-любому: или у нас имеются доказательства устойчивости модели, или она ВООБЩЕ не нужна. Ошибка модели и ее устойчивость - это две стороны одной монеты.
Интересно, почему не Питон? М.б. тот-же R? Ни фига не понимаю.
Действительно. Раз уж такая тяга к знаниям, берешь рейтинг и из топа изучаешь то, что вроде походит.
Модель Решетова не эталон. Например поиск набора предикторов в ней происходит перебором различных вариантов - модель берёт случайный набор предикторов, обучается, и запоминает результат. Это повторяется в цикле огромное число раз, в итоге самый лучший результат используется как финальная модель. Этот процесс можно заметно ускорить если сначала сделать отбор предикторов специальным алгоримом, а потом обучить модель Решетова всего один раз на этом конкретном наборе. И вы получите качество модели Решетова при скорости сравнимой с AWS. "Стоимость" такой модели заметно упадёт, но качество останется на прежнем уровне.
Что за алгаритм такой??? В целом с высказыванием согласен, цена моделцы и качество это немного совсем разные весчи. Можно получать и дешёвую но качественную модель. У Решетова реально проблема в том что он считает слишком долго за счёт неоднократного деления выборки в случайном порядке и т.д.
Опять же что за алгоритмы такие? которые могут сразу сказать какой из предикторов не актуален. У него это как то реализовано, но толком я ещё это не смотрел.... На самом деле он определяет это через инвариант, что по логике вполне актуально, но думаю ошибки всётаки есть :-( скорее не ошибки, а не доделки...
Если все же 2 скрытых слоя использовать, то очевидно 2-й слой намного меньше по количеству нейронов чем 1-й.
Какой минимум для количества нейронов в слое? Мне кажется меньше 3-5 нет смысла делать.
Или слой с 1 - 2 нейронами тоже может внести весомый вклад в модель?
Если все же 2 скрытых слоя использовать, то очевидно 2-й слой намного меньше по количеству нейронов чем 1-й.
Какой минимум для количества нейронов в слое? Мне кажется меньше 3-5 нет смысла делать.
Или слой с 1 - 2 нейронами тоже может внести весомый вклад в модель?
из практики - 1 нейрон с 3-мя входами может зазубрить норм сигналы за 1-1.5 мес. на 15-и минутках и где-то 200 сделок, если брать больше выборку то кач-во зубрежки резко падает и кол-во сделок тоже, не хватает комбинаций. Ну то есть при условии что система оставалась бы стационарной и сигналы повторялись, 1 нейрончика хватило бы даже.
то же самое с fuzzy логикой на 3-х входах примерно, и с оптимизацией 4-х функций принадлежностиОпять же что за алгоритмы такие? которые могут сразу сказать какой из предикторов не актуален.
Алгоритмов много, даже больше чем хочется. Например -
Статья от Владимира - https://www.mql5.com/ru/articles/2029
Статья от Алексея - https://habrahabr.ru/company/aligntechnology/blog/303750/
Для любителей грузить процессор разными плюшками при моделировании - вот выход радикально уменьшить время.
Are parallel simulations in the cloud worth it? Benchmarking my MBP vs my Workstation vs Amazon EC2
Для любителей грузить процессор разными плюшками при моделировании - вот выход радикально уменьшить время.
Are parallel simulations in the cloud worth it? Benchmarking my MBP vs my Workstation vs Amazon EC2
C Dll и просьбой установить мт5, R и нужные пакеты - туда видимо нереально попасть.