Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 979
Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
Поиграл с НС и kfold еще и ансамблями НС из alglib для классификации (softmax), первое впечатление:
1. LBFGS обучается намного быстрее LM (второй ждать вообще нереально), в т.ч. для одной НС без ансамбля
2. kfold все время показывает большую ошибку обучения, вывести стратегию в + не получилось даже при 2-х фолдах, не говоря о 10. Возможно, не очень подходит для моей задачи, но еще попробую.
3. Ансамбль НС на основе bagging и на алгоритме LBFGS по качеству примерно как ансамбль из лесов, но обучается медленнее
3. Ансамбль на основе раннего останова с валидационной выборкой (по моему используется LM): вообще не дождешься пока обучится
4. Тюнинг параметров (шаг, кол-во перезапусков) не дают видимых улучшений. Увеличение кол-ва нейронов в 2-3 раза дает небольшое улучшение.
5. В целом создалось впечатление, что НС переобучаются так же как Лес, ансамбль из НС на баггинге переобучается немного меньше чем комитет из лесов.
Все это делалось для того, что бы потом сравнить с xgboost, например, который позже буду исследовать.
++ stacking моделей у меня не дал бОльшей устойчивости, обучается точно так же, иногда можно улучшить результаты на трейне из-за того что модель просто больше обучается
Привет, немного не по теме. Как то на форуме находил вашу переписку с другим человеком. Вы там обсуждали через какую программу делают справку от майкрософта. (Та самая котоая вылазиет при нажатии F1). Что бы там собрать свои варианты кода в более удобной форме с поиском. Подскажите пожалуйста еще раз. (Надеюсь я не ошибся и это были вы)))
Привет, немного не по теме. Как то на форуме находил вашу переписку с другим человеком. Вы там обсуждали через какую программу делают справку от майкрософта. (Та самая котоая вылазиет при нажатии F1). Что бы там собрать свои варианты кода в более удобной форме с поиском. Подскажите пожалуйста еще раз. (Надеюсь я не ошибся и это были вы)))
по моему это был не я ) не помню такого
по моему это был не я ) не помню такого
Жаль, извиняюсь)))
Жаль, извиняюсь)))
Help & Manual попробуйте.
О то что надо спс
Добрый день ))
Пока вы тут занимаетесь поиском досихпор, у нас уже создали РПЭ - российский прорывной элемент.
Это "пятый элемент" - грааль, философский камень, киноварь, система ци , достижение наших научных специалистов по алгоритмизации.
Теперь любые экономические-финансовые проекты будут оптимизировать через глубокий нейронный анализ на РПЭ.
Т.е. в будущем 1 рубль будет приравнен к 1 доллару- путем экономических прорывов.
мы дружно идем в светлое будущее!))
Добрый день ))
....
А вы наверное из этой команды гениев? инсайд сливаете? подождите обычные не окрепшие умы могут не понять )
Поиграл с НС и kfold еще и ансамблями НС из alglib для классификации (softmax), первое впечатление:
1. LBFGS обучается намного быстрее LM (второй ждать вообще нереально), в т.ч. для одной НС без ансамбля
2. kfold все время показывает большую ошибку обучения, вывести стратегию в + не получилось даже при 2-х фолдах, не говоря о 10. Возможно, не очень подходит для моей задачи, но еще попробую.
3. Ансамбль НС на основе bagging и на алгоритме LBFGS по качеству примерно как ансамбль из лесов, но обучается медленнее
3. Ансамбль на основе раннего останова с валидационной выборкой (по моему используется LM): вообще не дождешься пока обучится
4. Тюнинг параметров (шаг, кол-во перезапусков) не дают видимых улучшений. Увеличение кол-ва нейронов в 2-3 раза дает небольшое улучшение.
5. В целом создалось впечатление, что НС переобучаются так же как Лес, ансамбль из НС на баггинге переобучается немного меньше чем комитет из лесов.
Все это делалось для того, что бы потом сравнить с xgboost, например, который позже буду исследовать.
++ stacking моделей у меня не дал бОльшей устойчивости, обучается точно так же, иногда можно улучшить результаты на трейне из-за того что модель просто больше обучается
Еще бы знать как называется та игрушка с которой Вы играетесь.
Еще бы знать как называется та игрушка с которой Вы играетесь.
написано же - библиотека численного анализа alglib, портированная в MT5. Заюзал уже вдоль и поперек, косяков в общем-то нет, либа хорошая. Но без визуализации и более новых современных моделей. Кажется, что либа больше не развивается, на их сайте тишина.