Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 1512

 
Andrey Dik:
Как называется обучение сетки одновременно по нескольким символам, то есть когда одни и те же параметры (веса) сетки используются на нескольких символах?

Я бы назвал это "сливным обучением", или "drawdown learning", для важности, ждем статью по "drawdown learning" от Переверенко или Денисенко, с продвинутым ООП(>5 глубина наследования), 90% акураси и одинаковым(equal) отношением прибыли к просадке на тесте, или как в старые добрые вообще без теста, всё на лёрне и с мартином, чистая экспонента)))

 
Кеша Рутов:

Я бы назвал это "сливным обучением", или "drawdown learning", для важности, ждем статью по "drawdown learning" от Переверенко или Денисенко, с продвинутым ООП(минимум 5 глубина наследования), 90% акураси и одинаковым(equal) отношением прибыли к просадке на тесте, или как в старые добрые вообще без теста, всё на лёрне и с мартином, чистая экспонента)))

а по делу?

 
Andrey Dik:

а по делу?

По делу оно обычно так и должно быть, на вход "пучок" ВР как то предобработанных, на выход вектор будущих свойств для каждого ВР. Но для этого нужны синхронизированные ряды, от ДЦ такого не получить, нужно самому собирать, легкая разсинхронизация и в подарок тестерный грааль а на реале слив.

 
Andrey Dik:
Как называется обучение сетки одновременно по нескольким символам, то есть когда одни и те же параметры (веса) сетки используются на нескольких символах?

Transfer learning мб

 
Maxim Dmitrievsky:

Transfer learning мб

Срочно писать статью по "drawdown learning". 

Даю справку transfer learning это вообще из другой оперы, наш иждивенец совсем не шарит,  transfer learning это когда выделенные(как правило первые 1-2 слоя) нейроны\слои обученные на каком то одном датасете или алгоритме используются в другой сетке как запчасть, такое использует например для стилизации картинок.

 
Кеша Рутов:

По делу оно обычно так и должно быть, на вход "пучок" ВР как то предобработанных, на выход вектор будущих свойств для каждого ВР. Но для этого нужны синхронизированные ряды, от ДЦ такого не получить, нужно самому собирать, легкая разсинхронизация и в подарок тестерный грааль а на реале слив.

с синхронизацией рядов проблем нет, так как нет привязки к конкретным точкам ВР-ов, по крайней мере я так мучу.

 
Maxim Dmitrievsky:

Transfer learning мб

смысл сего действа - выделение стабильных паттернов (или ещё как угодно можно назвать), а стабильные они оттого, что работают на разных ВР, мои робкие эксперементы в этой области показывают, что это в принципе возможно... и как следствие повышается робастность (снижение степени подгонки)

 
Кеша Рутов:

Срочно писать статью по "drawdown learning". 

Даю справку transfer learning это вообще из другой оперы, наш иждивенец совсем не шарит,  transfer learning это когда выделенные(как правило первые 1-2 слоя) нейроны\слои обученные на каком то одном датасете или алгоритме используются в другой сетке как запчасть, такое использует например для стилизации картинок.

без сопливых гололед

 
Andrey Dik:

смысл сего действа - выделение стабильных паттернов (или ещё как угодно можно назвать), а стабильные они оттого, что работают на разных ВР, мои робкие эксперементы в этой области показывают, что это в принципе возможно... и как следствие повышается робастность (снижение степени подгонки)

обучается сначала на одном вр, затем дообучается на другом. Какие конкретно реализации надо смотреть, могут быть разные

я еще искусственно шум добавляю к фичам, иногда улучшает результаты

посмотри еще importance sampling, тоже интересная штука

еще meta learning

 
Кеша Рутов:

Я бы назвал это "сливным обучением", или "drawdown learning", для важности, ждем статью по "drawdown learning" от Переверенко или Денисенко, с продвинутым ООП(>5 глубина наследования), 90% акураси и одинаковым(equal) отношением прибыли к просадке на тесте, или как в старые добрые вообще без теста, всё на лёрне и с мартином, чистая экспонента)))

Кеша, прекращай курить всякую дрянь. А то действительно станешь ...

Откуда берутся эти недоумки?

Причина обращения: