Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 523

 
Maxim Dmitrievsky:

Это ниочем, обычная подгонка, 100 раз уже обсуждалось. Делается элементарно и никакой практической пользы на форексе не представляет.


Всмысле подгонка. Яж вроде как обозначил что это участок вне выборки ООС..... Где подгонка то? Это как раз таки и есть достаточно высокий уровень обобщения еслив что.....

 
Mihail Marchukajtes:

Всмысле подгонка. Яж вроде как обозначил что это участок вне выборки ООС..... Где подгонка то? Это как раз таки и есть достаточно высокий уровень обобщения еслив что.....


аа.. вне.. я проглядел ООС :) тогде на реале должно работать, пусть хуже н овсе равно в +

для стабильных результатов нужно кросс-валидацию делать и адаптивную ТС.. но и там оч много подводных камней

основной подводный камень при самопереобучающейся системе, котороый я обнаружил - леса или НС каждый раз на той же самой выборке обучаются немного по разному, из-за этого могут сильно меняться итоговые результаты. Т.е. если несколкьо раз в тестере прогнать одну и ту же ТС, результаты будут разные :)

И каждый раз как я ве больше изучаю НС, мне все больше начинает нравиться простая логит или линейная регрессия :D

 

Кто-нибудь знает, что происходит с сетью, когда количество обучающих примеров по классам разное? В том, что это приводит к перекосу и сеть начинает выдавать только один класс, я убедился. И в том, что выравнивание по количеству примеров по классам исправляет ситуацию.

Но хотелось бы понять, в чем причина?
Человек например увидев 100 кошек и 2 собаки, уделит собакам повышенное внимание и как следует их рассмотрит, типа - "О! Что-то новенькое". Для нейросети почему-то эти 2 собаки оказываются похожими на кошек. Т.е. количество портит качество.

Слишком малое-количество примеров одного из классов, не позволяет выделить для их определения ни одного нейрона/связи? Хотя при софтмаксе, выходной нейрон выделен, значит к нему не прокладываются связи.
Или к этим 2м примерам находятся 10 очень похожих из др. класса и делают перевес в свою сторону?

 
Mihail Marchukajtes:

Всмысле подгонка. Яж вроде как обозначил что это участок вне выборки ООС..... Где подгонка то? Это как раз таки и есть достаточно высокий уровень обобщения еслив что.....

Ну тогда вот тоже похвастаюсь бэк versus форвард по месяцу


 
elibrarius:

Кто-нибудь знает, что происходит с сетью, когда количество обучающих примеров по классам разное? В том, что это приводит к перекосу и сеть начинает выдавать только один класс, я убедился. И в том, что выравнивание по количеству примеров по классам исправляет ситуацию.

Но хотелось бы понять, в чем причина?
Человек например увидев 100 кошек и 2 собаки, уделит собакам повышенное внимание и как следует их рассмотрит, типа - "О! Что-то новенькое". Для нейросети почему-то эти 2 собаки оказываются похожими на кошек. Т.е. количество портит качество.

Слишком малое-количество примеров одного из классов, не позволяет выделить для их определения ни одного нейрона/связи? Хотя при софтмаксе, выходной нейрон выделен, значит к нему не прокладываются связи.
Или к этим 2м примерам находятся 10 очень похожих из др. класса и делают перевес в свою сторону?


ну она же усредняет примеры, второй класс начинает меньшую долю вносить

 

Еще одна любопытная либа facebook's Prophet

http://strategy.doubledoji.com/how-to-use-facebooks-prophet-algorithm-in-forex-trading/

https://github.com/doubledare704/Jupyter-bitcoin

примеры для форекса и биткойна

Get My Forex Systems FREE!
Get My Forex Systems FREE!
  • admin
  • strategy.doubledoji.com
Trading is all about forecasting price. If you have been reading my Forex Strategies 2.0 Blog, you must have seen I am focusing more and more on algorithmic trading. If you can forecast currency pair price with a reasonable degree of accuracy, you can make a lot of pips. Markets have changed a lot. Today algorithms rule the market. Wall Street...
 

До чего довел прогресс.


Раскрашиваем чёрно-белую фотографию с помощью нейросети из 100 строк кода
Раскрашиваем чёрно-белую фотографию с помощью нейросети из 100 строк кода
  • 2015.11.17
  • habrahabr.ru
Перевод статьи Colorizing B&W Photos with Neural Networks. Не так давно Амир Авни с помощью нейросетей затроллил на Reddit ветку /r/Colorization, где собираются люди, увлекающиеся раскрашиванием вручную в Photoshop исторических чёрно-белых изображений. Все были изумлены качеством работы нейросети. То, на что уходит до месяца работы вручную...
 
Morexod:

До чего довел прогресс.



Странно,что брови не попали в обработку хотя и прядь волос входит в группу.

 
Maxim Dmitrievsky:

Ну тогда вот тоже похвастаюсь бэк versus форвард по месяцу


Вот это я понимаю... зачётно. Вполне можно ставить на реал...

 

Я не знаю что делают Ваши сети. Но Решетовская при перекосе классов. Когда количество единичек и нулей в выходной переменной не равно. Он добавляет в обуччающую и тестовую выборку те классы которых меньше. Как из пример про кошек и собак. Если есть 100 кошек и 2 собаки, то выбока будет дополнена ещё 98 копиями собак для равновесия. Но пример не удачный, потому как там хитрый способ добавления. Не просто так. В итоге получим выборку где 100 разных кошек и 100 копий собак. Как то так...

Причина обращения: