Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 429

 
Maxim Dmitrievsky:

Забыли поставить (с)  :))
Скрипач не нужен (c).
Намедни пришел к этому выводу. Поверьте на слово, обоснованному. M ошибки=0.1 (не ТС)
С мобилы писать трудно.)
Ps см. С.Хайкин и Бишоп (на англ)
 
Vladimir Perervenko:

Да нет не врут. Ниже объяснение(из статьи которую никак не закончу :(

Введение

Сегодня оба направления активно используются на практике. Сравнительные эксперименты [ ] этих двух подходов не выявили значительных преимуществ одного подхода над другим, но одно все таки есть. Нейросети с предобучением требуют намного меньше примеров для обучения и вычислительных ресурсов при практически равных результатах. Для некоторых областей это очень важное преимущество.

Удачи

Ну разобрались с этим :) Да, особенно приятное это скорость обучения (плюс к качеству моделей), буду эксперементировать обязательно позже с перимерами из ваших статей, как закончатся реализации своих идей, тема оч интересная и периодами профитная, как на моей скромной модели вчера, например :) (лот маленький т.к. все еще тесты) 

Она пока что оч. сильно оверфитится и не работает на длительных интервалах без переобучения, зато на интервалах 2-3 мес обучается (подгоняется?) почти идеально, и приличная вероятность что неделю проработает после обучения, просто переобучаю каждую неделю. Честно, никогда раньше не получал таких кривых (по ценам закрытия, не тики) до знакомства с МО в тестере. Причем, обучается хорошо практически на всех валютных парах и индексах (биржевые еще не пробовал т.к. мало истории по контрактам, а со склейками возиться не охото), т.е. можно составлять низкорисковые портфели.

Сейчас основная задача это повышение устойчивости на тестовых выборках путем добавления нелинейных взаимосвязей, задачка надо сказать нетривиальная, но до определенной степени разрешимая (как видится) .


 
Yuriy Asaulenko:
Скрипач не нужен (c).
Намедни пришел к этому выводу. Поверьте на слово, обоснованному. M ошибки=0.1 (не ТС)
С мобилы писать трудно.)
Ps см. С.Хайкин и Бишоп (на англ)

Почитаю потом, надо запомнить

 
Maxim Dmitrievsky:

Ну разобрались с этим :) Да, особенно приятное это скорость обучения (плюс к качеству моделей), буду эксперементировать обязательно позже с перимерами из ваших статей, как закончатся реализации своих идей, тема оч интересная и периодами профитная, как на моей скромной модели вчера, например :) (лот маленький т.к. все еще тесты) 

Она пока что оч. сильно оверфитится и не работает на длительных интервалах без переобучения, зато на интервалах 2-3 мес обучается (подгоняется?) почти идеально, и приличная вероятность что неделю проработает после обучения, просто переобучаю каждую неделю. Честно, никогда раньше не получал таких кривых (по ценам закрытия, не тики) до знакомства с МО в тестере. Причем, обучается хорошо практически на всех валютных парах и индексах (биржевые еще не пробовал т.к. мало истории по контрактам, а со склейками возиться не охото), т.е. можно составлять низкорисковые портфели.

Сейчас основная задача это повышение устойчивости на тестовых выборках путем добавления нелинейных взаимосвязей, задачка надо сказать нетривиальная, но до определенной степени разрешимая (как видится) .


Оптимизация часто находит очень хорошие результаты... но это не столь важно.
Вы вроде бы запускали на реал RNN Решетова с TrendLinearReg - работает еще или идея оказалась не рабочей?
 
СанСаныч Фоменко:

В последнее время я вернулся к GARCH, с которыми был знаком ранее. Что меня чрезвычайно удивило после нескольких лет увлечения машинным обучением, это огромное количество публикаций по применению GARCH к финансовым временным рядам, включая валюты.


Имеется нечто подобное для глубоких сетей?

Я не занимаюсь регрессией. Так, отслеживаю что нового в этой области. Из последних разработок понравился пакет prophet.

Глубокие сети для классификации заточены. 

Удачи

 
elibrarius:
Оптимизация часто находит очень хорошие результаты... но это не столь важно.
Вы вроде бы запускали на реал RNN Решетова с TrendLinearReg - работает еще или идея оказалась не рабочей?

Поменял предикторы, хотел сначала скинуть.. потом думаю чето не, такая корова нужна самому пока что ) Каркас МО на Решетове остался, все остальное переделано, добавлял МЛП - не понравилось, долго считает, сейчас буду рэнд. форест добавлять + несколько идей еще, которые в процессе появляются.. Т.е. вообще хочу комитет или что бы одна нс обучала другую, что-то такое эдакое всегда хочется оригинальное 

Но регр. angle по любому хорош сам по сбе как на вход так и на выход, если еще по логарифмическим графикам.. предиктор что надо

 
Maxim Dmitrievsky:
Поменял предикторы, хотел сначала скинуть.. потом думаю чето не, такая корова нужна самому пока что ) Каркас МО на Решетове остался, все остальное переделано, добавлял МЛП - не понравилось, долго считает, сейчас буду рэнд. форест добавлять + несколько идей еще, которые в процессе появляются..
На Решетовской сети входов не много ... 3-6, если столько же подать на МЛП, то тоже быстро должно посчитать.
 
elibrarius:
На Решетовской сети входов не много ... 3-6, если столько же подать на МЛП, то тоже быстро должно посчитать.


Да, но на МЛП возникает проблема Выходов.. а решетовский сразу заточен на вероятности по экстремумам осцилляторов, т.е. достаточно грамотно детрендировать рынок, сделать какие-то преобразования и скормить ему в виде стационарного ряда

ПЛЮс млп этот алглибовский каждый раз по разному обучается на одних и тех же сетах, 1 раз прогнал одно показал, второй раз - другое, и так в цикле по несколько итераций (5-7) будет выдавать разные значения, как с этим работать я не знаю. Поэтому я начал добавлять больше входов (до 15) и он стал медленно обучаться. Я юзал софтмакс. Ансамбли тоже попробовал - вообще долго. И в конечном итоге, из экспериментов в azure machine learning видно, что RF всегда дает меньше ошибку чем практически все простые модели МО, МЛП же дает самую большую ошибку, как правило.. Возможно, я просто не умею его готовить, но выглядит это так что он на самом деле похуже и медленнее, чему я нашел подтверждение здесь у Сан Саныча

То есть, если выбирать из простых классификаторов то однозначно RF, на очереди DNN и прочие последние нишчятки, RNN и LSTM. Идем от простого к сложному :)

  
 
Maxim Dmitrievsky:

Но регр. angle по любому хорош сам по сбе как на вход так и на выход, если еще по логарифмическим графикам.. предиктор что надо

Что за регр. angle и логарифмические графики?

 
elibrarius:

Что за регр. angle и логарифмические графики?

TrendLineregr показывает угол наклона линии регрессии за заданное число баров - это хороший индикатор в кач-ве предиктора и в кач-ве целевой тоже, замена зигзагу. Т.е. фактически он избавляет от шумовой составляющей котировок (по моему мнению)

ну а лого графики это берутся не чистые графики а логарифм от цен

Ну и вообще те же гарч фигарч и арима это регрессионный анализ сплошь и рядом, ничего более интересного пока не придумано, поэтому раз люди юзают значит надо тоже юзать в том или ином виде

Причина обращения: