Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 523
Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
Это ниочем, обычная подгонка, 100 раз уже обсуждалось. Делается элементарно и никакой практической пользы на форексе не представляет.
Всмысле подгонка. Яж вроде как обозначил что это участок вне выборки ООС..... Где подгонка то? Это как раз таки и есть достаточно высокий уровень обобщения еслив что.....
Всмысле подгонка. Яж вроде как обозначил что это участок вне выборки ООС..... Где подгонка то? Это как раз таки и есть достаточно высокий уровень обобщения еслив что.....
аа.. вне.. я проглядел ООС :) тогде на реале должно работать, пусть хуже н овсе равно в +
для стабильных результатов нужно кросс-валидацию делать и адаптивную ТС.. но и там оч много подводных камней
основной подводный камень при самопереобучающейся системе, котороый я обнаружил - леса или НС каждый раз на той же самой выборке обучаются немного по разному, из-за этого могут сильно меняться итоговые результаты. Т.е. если несколкьо раз в тестере прогнать одну и ту же ТС, результаты будут разные :)
И каждый раз как я ве больше изучаю НС, мне все больше начинает нравиться простая логит или линейная регрессия :D
Кто-нибудь знает, что происходит с сетью, когда количество обучающих примеров по классам разное? В том, что это приводит к перекосу и сеть начинает выдавать только один класс, я убедился. И в том, что выравнивание по количеству примеров по классам исправляет ситуацию.
Но хотелось бы понять, в чем причина?
Человек например увидев 100 кошек и 2 собаки, уделит собакам повышенное внимание и как следует их рассмотрит, типа - "О! Что-то новенькое". Для нейросети почему-то эти 2 собаки оказываются похожими на кошек. Т.е. количество портит качество.
Слишком малое-количество примеров одного из классов, не позволяет выделить для их определения ни одного нейрона/связи? Хотя при софтмаксе, выходной нейрон выделен, значит к нему не прокладываются связи.
Или к этим 2м примерам находятся 10 очень похожих из др. класса и делают перевес в свою сторону?
Всмысле подгонка. Яж вроде как обозначил что это участок вне выборки ООС..... Где подгонка то? Это как раз таки и есть достаточно высокий уровень обобщения еслив что.....
Ну тогда вот тоже похвастаюсь бэк versus форвард по месяцу
Кто-нибудь знает, что происходит с сетью, когда количество обучающих примеров по классам разное? В том, что это приводит к перекосу и сеть начинает выдавать только один класс, я убедился. И в том, что выравнивание по количеству примеров по классам исправляет ситуацию.
Но хотелось бы понять, в чем причина?
Человек например увидев 100 кошек и 2 собаки, уделит собакам повышенное внимание и как следует их рассмотрит, типа - "О! Что-то новенькое". Для нейросети почему-то эти 2 собаки оказываются похожими на кошек. Т.е. количество портит качество.
Слишком малое-количество примеров одного из классов, не позволяет выделить для их определения ни одного нейрона/связи? Хотя при софтмаксе, выходной нейрон выделен, значит к нему не прокладываются связи.
Или к этим 2м примерам находятся 10 очень похожих из др. класса и делают перевес в свою сторону?
ну она же усредняет примеры, второй класс начинает меньшую долю вносить
Еще одна любопытная либа facebook's Prophet
http://strategy.doubledoji.com/how-to-use-facebooks-prophet-algorithm-in-forex-trading/
https://github.com/doubledare704/Jupyter-bitcoin
примеры для форекса и биткойна
До чего довел прогресс.
До чего довел прогресс.
Странно,что брови не попали в обработку хотя и прядь волос входит в группу.
Ну тогда вот тоже похвастаюсь бэк versus форвард по месяцу
Вот это я понимаю... зачётно. Вполне можно ставить на реал...
Я не знаю что делают Ваши сети. Но Решетовская при перекосе классов. Когда количество единичек и нулей в выходной переменной не равно. Он добавляет в обуччающую и тестовую выборку те классы которых меньше. Как из пример про кошек и собак. Если есть 100 кошек и 2 собаки, то выбока будет дополнена ещё 98 копиями собак для равновесия. Но пример не удачный, потому как там хитрый способ добавления. Не просто так. В итоге получим выборку где 100 разных кошек и 100 копий собак. Как то так...