Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 495

 
Алёша:
Всё нормально, результат нулевой, это Вам ещё повезло что на такой маленькой выборке результат оказался статистически не смещенным. А на бэкварде эквити вообще не нужно смотреть даже, её можно сделать легко вообще экспонентой без вариаций.

А на что тогда ориентироваться, при выборе сета для форварда?

 
Алёша:

Увы, но они ошибаются и это нормально не только для "неучей" и снобов, вспомните про Минского и его авторитетное мнение в отношении "бесперспективности" многослойных персептронов)))

Про статьи на хабре я вообще молчу, это всё равно что вбросы на форумах, 99.9% реклама, научпоп и откровенный трэш, 0.1% толковых мыслей в неявной форме, "между строк".

Лично сторонник того, что нужно понять, как алгоритм устроен, сделать самому и использовать для сверки библиотеки из сети.

Да и в сети в основном перепосты одни и пр., много роликов, да мало примеров конкретной реализации в коде или в коде, но на незнакомом языке программирования.

 
Олег avtomat:

все неучи, кроме ФА

только ФА уч

;))


Смотрю не даю тебе ровно дышать.. вздохни и успокойся

 
Maxim Dmitrievsky:

причем здесь все это когда речь идет об экстраполяции..

те кто написал RF в библиотеке alglib тоже малообразованные люди?

и r блоггеры тоже неучи, судя по всему

https://www.r-bloggers.com/extrapolation-is-tough-for-trees/


Когда мы ссылаемся на авторитетных людей, то это означает, что мы доверяем результату. Делать это можно только в отношении очень известных людей, публикующих результаты в хороших журналах с квалифицированными редакторами.


А Вы о чем? О блоге? Это авторитет?


Ваша ссылка - это классика ссылки на тех, кого я называю неучем.

Автор берет линейную регрессию, крайне ограниченную в применении модель, и что-то там рассуждает.

Для линейной регрессии чрезвычайно важны свойства входных данных, и очень важно обосновать, что результатам можно доверять. Где это в статье?


Это азы статистики, которые распространяются на любые модели.


Это положение очень кратко формулируется аксиомой статистики (и всей математики, кстати): МУСОР НА ВХОДЕ - МУСОР НА ВЫХОДЕ.

Человек, которые этого не знает, либо не применяет этого на практике - по-моему относится к дремучим неучам, независимо от того знает он слово персептрон или нет.

 
СанСаныч Фоменко:

Когда мы ссылаемся на авторитетных людей, то это означает, что мы доверяем результату. Делать это можно только в отношении очень известных людей, публикующих результаты в хороших журналах с квалифицированными редакторами.


А Вы о чем? О блоге? Это авторитет?


Ваша ссылка - это классика ссылки на тех, кого я называю неучем.

Автор берет линейную регрессию, крайне ограниченную в применении модель, и что-то там рассуждает.

Для линейной регрессии чрезвычайно важны свойства входных данных, и очень важно обосновать, что результатам можно доверять. Где это в статье?


Это азы статистики, которые распространяются на любые модели.


Это положение очень кратко формулируется аксиомой статистики (и всей математики, кстати): МУСОР НА ВХОДЕ - МУСОР НА ВЫХОДЕ.

Человек, которые этого не знает, либо не применяет этого на практике - по-моему относится к дремучим неучам, независимо от того знает он слово персептрон или нет.


жесть, вы тут все бухаете что-ли

 

Умеет ли лес экстраполировать? Да.
Хорошо ли он это делает? Нет.

 
Dr. Trader:

Умеет ли лес экстраполировать? Да.
Хорошо ли он это делает? Нет.


RF АБСОЛЮТНО не умеет экстраполировать, это связано с устройством деревьев решений, как показано в статье выше

 
Maxim Dmitrievsky:

RF АБСОЛЮТНО не умеет аппроксимировать, это связано с устройством деревьев решений, как показано в статье выше


Жесть!

Экстраполяция и аппроксимация АБСОЛЮТНО разные понятия.


Вообще не трезвеете?

 
СанСаныч Фоменко:

Жесть!

Экстраполяция и аппроксимация АБСОЛЮТНО разные понятия.


Вообще не трезвеете?


да я нечайно слова перепутал, потому что про аппроксимацию читал в этот момент

 

Вот интересный пример, его в этой теме когда-то раньше выкладывал toxic.
Экстраполяцией в данном случае будет предсказание вне "облака известных точек"

Если известные точки хорошо кучкуются в кластеры, то видно что экстраполяция не вызывает проблем у большинства моделей.
Но если бы известные точки располагались более рандомно, без очевидных кластеров, то и само предсказание было бы хуже, и экстраполяция бы не вызывала доверия.

Всё дело в предикторах, если напихать в модель всякого мусора то хорошей экстраполяции действительно не будет.
Конкретно для форекса вряд ли удастся найти идеальные предикторы, торговать экстраполяцией на финансовых данных я бы никогда не стал.

Причина обращения: