Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 494

 
Yuriy Asaulenko:

Почитать теорию Хайкин Нейронные сети и Бишоп на английском - перевода нет, но вроде готовится.

Да все просто. На вход случайные сделки, на выход результат. Метод Монте-Карло называется, а он оч. не быстрый сам по себе. А уж систематизация дело самой НС.


ну а  самой НС есть какое-то особенное название? Типа нейросеть на стохастическом методе отжига непонятно как обучающаяся то-ли с учителем то ли без, и вместо выходов оптимизирующая входы :)) книжки почитаю,

Хайкин "НС полный курс второе изд." есть на русском

 
Maxim Dmitrievsky:

ну а  самой НС есть какое-то особенное название? Типа нейросеть на стохастическом методе отжига непонятно как обучающаяся то-ли с учителем то ли без, и вместо выходов оптимизирующая входы :)) книжки почитаю,

Хайкин "НС полный курс второе изд." есть на русском

Хайкин есть, Бишопа на русском нет.

НС - обычный MLP, обучение - обычный БП, только с регулярными ручными перенастройками по ходу пьесы. Если таких перенастроек не делать или просто перемешивать выборку, то обучается оч быстро, но хорошо (даже отлично)) работает только на обучающей последовательности.

 
Yuriy Asaulenko:

Хайкин есть, Бишопа на русском нет.

НС - обычный MLP, обучение - обычный БП, только с регулярными ручными перенастройками по ходу пьесы. Если таких перенастроек не делать или просто перемешивать выборку, то обучается оч быстро, но хорошо (даже отлично)) работает только на обучающей последовательности.


А у Хайкина старье :) пока обойдусь значит, всегда ограничивался статьями и описанием моделей, в книгах много лишнего (что бы был объем для продажи)

 
Maxim Dmitrievsky:

А у Хайкина старье :) пока обойдусь значит, всегда ограничивался статьями и описанием моделей, в книгах много лишнего (что бы был объем для продажи)

ну, я бы не сказал. Теория не стареет. Зато появляется глубокое понимание предмета. Статьи, да, конечно, но без общей теории не оч понимаются, да и просто воспринимаются поверхностно и некритично - мало ли ерунды пишут.)
 
Алёша:

Ложное утверждение. Лес обычный и бустовый в экстраполяции ни чем от НС не отличается.


  • Модель умеет только интерполировать, но не экстраполировать (это же верно и для леса и бустинга на деревьях). То есть дерево решений делает константный прогноз для объектов, находящихся в признаковом пространстве вне параллелепипеда, охватывающего все объекты обучающей выборки. В нашем примере с желтыми и синими шариками это значит, что модель дает одинаковый прогноз для всех шариков с координатой > 19 или < 0.

во всех статьях, на которые бы я не натыкался пишут одно и то же

https://habrahabr.ru/company/ods/blog/322534/


  • как и деревья решений, алгоритм абсолютно неспособен к экстраполяции
 
Maxim Dmitrievsky:

  • Модель умеет только интерполировать, но не экстраполировать (это же верно и для леса и бустинга на деревьях). То есть дерево решений делает константный прогноз для объектов, находящихся в признаковом пространстве вне параллелепипеда, охватывающего все объекты обучающей выборки. В нашем примере с желтыми и синими шариками это значит, что модель дает одинаковый прогноз для всех шариков с координатой > 19 или < 0.

во всех статьях, на которые бы я не натыкался пишут одно и то же

https://habrahabr.ru/company/ods/blog/322534/


  • как и деревья решений, алгоритм абсолютно неспособен к экстраполяции

Чушь пишут малообразованные люди. Они не слышали про переобучение, не имеют понятия про дэйтамайнинг, не слышали про шумовые предикторы, не умеют оценивать модели. Это просто такая разновидность великовозрастных снобов, играющих в интеллектуальные игры.

 
СанСаныч Фоменко:

Чушь пишут малообразованные люди. Они не слышали про переобучение, не имеют понятия про дэйтамайнинг, не слышали про шумовые предикторы, не умеют оценивать модели. Это просто такая разновидность великовозрастных снобов, играющих в интеллектуальные игры.


причем здесь все это когда речь идет об экстраполяции..

те кто написал RF в библиотеке alglib тоже малообразованные люди?

и r блоггеры тоже неучи, судя по всему

https://www.r-bloggers.com/extrapolation-is-tough-for-trees/

Extrapolation is tough for trees!
Extrapolation is tough for trees!
  • Peter's stats stuff - R
  • www.r-bloggers.com
This post is an offshoot of some simple experiments I made to help clarify my thinking about some machine learning methods. In this experiment I fit four kinds of model to a super-simple artificial dataset with two columns, x and y; and then try to predict new values of y based on values of x that are outside the original range of y. Here’s the...
 

все неучи, кроме ФА

только ФА уч

;))

 
Олег avtomat:

все неучи, кроме ФА

только ФА уч

;))


вот так люди и используют МО, не понимая принципы, а потом говорят что ниче не работает.. из последней статьи очевидно что RF не умеет экстраполировать, поэтому работать он должен только на знакомых данных

 
Алёша:

Увы, но они ошибаются и это нормально не только для "неучей" и снобов, вспомните про Минского и его авторитетное мнение в отношении "бесперспективности" многослойных персептронов)))

Про статьи на хабре я вообще молчу, это всё равно что вбросы на форумах, 99.9% реклама найчпоп и откровенный трэш 0.1% толковых мыслей в неявной форме, "между строк".

человек же на R привел пример, в каком месте он ошибся? я к сожалению R не пользуюсь, но могу даже сам воспроизвести

Причина обращения: