Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 956

 

Еще одна полезная книга по теме 

Удачи

Флах П. - Машинное обучение. Наука и искусство построения алгоритмов, которые извлекают знания из данных [2015, PDF, RUS] :: RuTracker.org
  • rutracker.org
Автор : 2015 : Флах П.: ДМК Пресс : 978-5-97060-273-7 : Русский: PDF : Отсканированные страницы : 402: Перед вами один из самых интересных учебников по машинному обучению - разделу искусственного интеллекта, изучающего методы построения моделей, способных обучаться, и алгоритмов для их построения и обучения. Автор воздал должное невероятному...
 

Ни демо ни реала не получилось пока ни у кого

Итог - игрушки это всё, развлекуха и забава...

 
Renat Akhtyamov:

Ни демо ни реала не получилось пока ни у кого

Итог - игрушки это всё, развлекуха и забава...

Сыну Наполеона на ДР подарили погремушку из алюминия. Ни на что другое алюминий был непригоден.)

 

ЫЫЫЫЫЫЫ!

Что-то и так и по другому использовал лес. На тренировке угадываются все классы, на проверочных данных немного поменьше, на тестовых в искомый класс чуть более 50% попадает и туда же попадают данные негативного класса(в количестве примерно 50% от искомого) .

Ну, в лучшем случае в искомый класс попадает мало примеров и чуть меньше негативного класса.

Что сомневаюсь, что данные можно вообще разделить, хотя бы в небольшой перевес, который значимо скажется на торговле.

Или это не так?

 

Промежуточные результаты экспериментов с деревом

Данный отчет за 2017 год - вход генерируется условием ТС, без применения фильтров, но с сопровождением позиции

всё то же самое, но вход генерируется Деревом, обученным на 2015 и 2016 годах

А это вход по сигналу АТС с фильтрами


Ну а это вход по Дереву с теми же фильтрами


Да, фильтры оптимизировались на 2016-2017 году, поэтому почти прдгонка, но почему ж их дерево не может выстроить - загадка. С другой стороны, видно, что там где отсеили фильтры входы - вошло дерево и наоборот, что так же интересно. А интересно то, что дерево не учитывает точный финансовый результат при принятии решения о ветвлении, а оптимизация на истории заточена именно на финансовые показатели.

 
forexman77:

ЫЫЫЫЫЫЫ!

Что-то и так и по другому использовал лес. На тренировке угадываются все классы, на проверочных данных немного поменьше, на тестовых в искомый класс чуть более 50% попадает и туда же попадают данные негативного класса(в количестве примерно 50% от искомого) .

Ну, в лучшем случае в искомый класс попадает мало примеров и чуть меньше негативного класса.

Что сомневаюсь, что данные можно вообще разделить, хотя бы в небольшой перевес, который значимо скажется на торговле.

Или это не так?

Лес и в Африке мусорная свалка, если ег завалить мусором, а Вы привели самое конкретное доказательство того, что у Вас ВООБЩЕ нет предикторов, имеющих отношение к целевой переменной.

 
СанСаныч Фоменко:

Лес и в Африке мусорная свалка, если ег завалить мусором, а Вы привели самое конкретное доказательство того, что у Вас ВООБЩЕ нет предикторов, имеющих отношение к целевой переменной.

отношение это типа они должны делиться на целевую? :DDDD

покажите график тест и трэйн, где отношение присутствует

такой график здесь показывал только недавно забаненый fxsaber, но он хотя бы понимал о чем писал.. и уж точно он не писал про поиск пердикторов через лес и прочие пакеты, т.к. отношение на рынке такими методами точно не находится, это все равно подгонка anyway

 
СанСаныч Фоменко:

Лес и в Африке мусорная свалка, если ег завалить мусором, а Вы привели самое конкретное доказательство того, что у Вас ВООБЩЕ нет предикторов, имеющих отношение к целевой переменной.

Вот пожалуйста. Много примеров показывают когда train=>validation. А нужно train=>validation=>test(test данные, которые вообще алгоритм не видит, а только предсказывает по обученной модели, на train, validation)

Так что те примеры, где показывают результаты train, а потом на validation ничего не говорят. У меня полно примеров где на validation получается угадывать 95% целевых.

При чем используется перекрестная проверка до k-10. Все равно перетренировка получается.

 
forexman77:

У меня полно примеров где на validation получается угадывать 95% целевых.

нашел, нашел где я писал:

М.Гюнтер. Аксиомы биржевого спекулянта:

Вспомогательная аксиома № 5. Остерегайтесь западни исторических параллелей.
Вспомогательная аксиома № 6. Остерегайтесь иллюзии повторяющихся фигур.
Вспомогательная аксиома № 7. Остерегайтесь заблуждения о существовании корреляции и причинной связи.

хм, а не плохое совпадение с Гюнтером? ))))

 
Igor Makanu:

нашел, нашел где я писал:

хм, а не плохое совпадение с Гюнтером? ))))

Давным-давно это знаю. Кажется в "третьем классе" проходил. Не удивили))))

Причина обращения: