Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 1615

 
Maxim Dmitrievsky:

 

47 минут жалко... на прослушивание основ, которые в большинстве известны. Интересует только один конкретный вопрос. Если знаете - скажите)

 
elibrarius:

47 минут жалко... на прослушивание основ, которые в большинстве известны. Интересует только один конкретный вопрос. Если знаете - скажите)

они все по разному строятся, надо курить справку для каждого

это все не важно, если есть информативные фичи, которые имеют отношение к целевой, тогда любой способ работает

я сравнивал лес с бустингом на аналогичных фичах. У бустинга меньше оверфита, в целом +-

 
Maxim Dmitrievsky:

они все по разному строятся, надо курить справку для каждого

это все не важно, если есть информативные фичи, которые имеют отношение к целевой, тогда любой способ работает

я сравнивал лес с бустингом на аналогичных фичах. У бустинга меньше оверфита, в целом +-

Бустингу какую глубину задавали?
 
Maxim Dmitrievsky:

они все по разному строятся, надо курить справку для каждого

это все не важно, если есть информативные фичи, которые имеют отношение к целевой, тогда любой способ работает

я сравнивал лес с бустингом на аналогичных фичах. У бустинга меньше оверфита, в целом +-

Так и я про тоже. Если входы годные к целевой то отработает любой метод. Что я и хотел проверить потомоу как у меня реально годные входы. Но доказывает это только оптимизатор Решетова, а как Вы понимаете одного эксперта мало чтобы сделать субъективную оценку. Дело не в методе, каждый из методов лишь требует то или иное количество фичей (пипец Макс, из за тебя в первые использовал это слово) кому то нужно их много, кому то мало, но в целом если входные данные объясняют выходную переменную, то отработает любой метод. И думаю результату будут схожи. Жаль что нельзя погонять мои входы в других системах кроме Решетова. Это же нужно на форум программистов идти, куда уж мне :-(
 
elibrarius:
Бустингу какую глубину задавали?

от 2 до 10, чем больше глубина тем больше подгон

оптимально 3-7

шаг градиента еще можно менять. В целом вообще поф, выдает результаты то меньше разброс, то меньше смещение, меньше сигналов и т.п... а средняя картинка сохраняется. Это уже вопрос оптимизации, с качеством фичей никак не связано.


 
Макс, вот честно тебе скажу спасибо за видос про естественный нейрон, но вот это вот видео как то не очень. Дело в том что у меня есть теория переобучения о которой я думаю ужё давно и выстроил её по мне так вполне адекватно. Уверен сотрудникам Яндекс будет интересно её послушать. Эх... найти бы силы записать видос. А то я вечно то бухой, то смешной. Него же как то :-(
 
Mihail Marchukajtes:
Макс, вот честно тебе скажу спасибо за видос про естественный нейрон, но вот это вот видео как то не очень. Дело в том что у меня есть теория переобучения о которой я думаю ужё давно и выстроил её по мне так вполне адекватно. Уверен сотрудникам Яндекс будет интересно её послушать. Эх... найти бы силы записать видос. А то я вечно то бухой, то смешной. Него же как то :-(

))) закономерности надо искать через статанализ, а не мучить нейроны

например, в предпоследней статье я дал раскладку сезонных колебаний EURUSD за 10 лет, по месяцам. В этом году все повторяется. Апрель-май будут наиболее интересными (из ближайшего)
 
Maxim Dmitrievsky:

))) закономерности надо искать через статанализ, а не мучить нейроны

Так и я про тоже. Прежде чем побеспокоить JPrediction я из 6000 тысяч столбиков оставляю только штук 150, которые статистически значимы и уж потом ищю в них этот пресловутый закон описывающий выход. При том что количество столбиков должно быть в два раза больше количество строчек таблицы исходя из теории чтоб алгоритму было из чего выбрать и в итоге оптимизатор из 150 предлагаемых мною столбиков оставляет от 5 до 10 штук которые я формируют окончательную модель.
 
Mihail Marchukajtes:
Так и я про тоже. Прежде чем побеспокоить JPrediction я из 6000 тысяч столбиков оставляю только штук 150, которые статистически значимы и уж потом ищю в них этот пресловутый закон описывающий выход. При том что количество столбиков должно быть в два раза больше количество строчек таблицы исходя из теории чтоб алгоритму было из чего выбрать и в итоге оптимизатор из 150 предлагаемых мною столбиков оставляет от 5 до 10 штук которые я формируют окончательную модель.

я заметил, что из исторических фичей работают 3-7, остальные мусор. Например, номер месяца, дня недели и т.п. (2-3 штуки) уже будут работать, если есть повторяемость. Только их надо в категориальные переводить.

Приращения и проч. не работает. Вернее, могут работать, но как - это в посл. статье есть. Для этого даже МО не обязательно.

да, 5-10 близко, так и есть, чтобы описать какую-то закономерность
 
Maxim Dmitrievsky:

я заметил, что из исторических фичей работают 3-7, остальные мусор. Например, номер месяца, дня недели и т.п. (2-3 штуки) уже будут работать, если есть повторяемость. Приращения и проч. не работает.

А я тебе так скажу. Последней версией Решетова была 14-ая. Я набрался смелости и допили оптимизатор до 15 версии и то это я так самолично решил. Но то что я туда добавил существенно меняет картину в лучшую сторону. Исходя из теории что самая робастая модель та у которой минимум входов и полином короче при прочих равных условиях я пошёл другим путём. Если Решетова решение было восхождение модели, то есть приращение количества входов от 4 входов и начинаем добавлять в итоге мы получаем модель скажем с 7 входами, то я начал со спуска, а именно начинаю с 11 входов и далее на уменьшение в итоге получаю модель с 9 входаме скажем как пример. При этом обе модели имеют абсолютно идентичные результаты обучения судя по метрикам. То есть обе модели пришли в область обощённости, только одна с низу, другая с верху. И какая Вы думаете  будет лучшей? Скажете та которая проще и имеет меньшее количество входов???? А вот и нет. Та что имеет большее количество входов будет круче. Раз они обе находятся в одной найденной области, та модель которая имеет большее количество входов будет более параметрична по отношению в мелкой. В итоге мы получаем две модели находящиеся в одном состоянии, просто одна сильная, та что с вверху, а другая слабая, та что с низу. Но результаты обучения то у них равны. А значит сильнее та модель которая будет больше требовать знаний о найденном законе, а не та которая пренебрегает дополнительными входами. ИМХО естественно!!!
Причина обращения: