Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 2014

 
elibrarius:

Это вопрос для всех:
Тоже получаю пачки однонаправленных сигналов от сети. Примерно как тут.

Иногда получается 100 и даже 200 подряд проигрышей. Выход только один - торговать микроскопическими лотами, типа 0,5% от депозита.
У кого какие идеи, чтобы не торговать сотнями подряд идущих сигналов?
Торговать первый, а потом не торговать пока открытый не закроется? Мне кажется это не лучший вариант.

Какие есть варианты?

Зачем их вообще торговать, это как русская рулетка с малокалиберным пистолетом :)

 
Посмотрите плиз индикатор) работает только в 2020году.
 
Maxim Dmitrievsky:

Че там, есть успехи с тестом?

 
mytarmailS:

Че там, есть успехи с тестом?

все так же.. в начале недели хорошо робит, после 'предобучения'. Потом начинает лить. Опять переделал, завтра поставлю на тесты :D

вознаграждение криво считается в трейдере, видать.. после серии апдейтов начинает торговать не в ту сторону

заодно рекуррентные сети в торче ковыряю между делом

желтые - начала недель, первые 1-3 дня


 

Кто нибудь пробовал использовать реплекативные (рекруррентые?) сети для снижения размерности?

Статья.

Видео.


Лекция 6 | Нейросетевые технологии
Лекция 6 | Нейросетевые технологии
  • 2018.10.14
  • www.youtube.com
Дата: 08.10.2018 Лектор: Дорофеев Евгений Александрович Лекции в формате PDF - https://goo.gl/Xwzg4a
 
Aleksey Vyazmikin:

Кто нибудь пробовал использовать реплекативные (рекруррентые?) сети для снижения размерности?

Статья.

Видео.


рекуррентные автоэнкодеры используют. не пробовал

 
Maxim Dmitrievsky:

рекуррентные автоэнкодеры используют. не пробовал

Я там не могу понять, как сразу идет вообще оценка качества модели по всем выходным нейронам, число которых равно входным нейронам...

Если увидите где подобное, пригодное для применения, то дайте, пожалуйста, знать.

У меня выборка приближается к 3000 предикторов, и появилась озабоченность, что их можно сильно сжать, так как они описывают сходную область.

 
Aleksey Vyazmikin:

Я там не могу понять, как сразу идет вообще оценка качества модели по всем выходным нейронам, число которых равно входным нейронам...

Если увидите где подобное, пригодное для применения, то дайте, пожалуйста, знать.

У меня выборка приближается к 3000 предикторов, и появилась озабоченность, что их можно сильно сжать, так как они описывают сходную область.

на вход и выход все фичи, в скрытом слое меньше нейронов. Он просто сжимает инфу через минимизацию ошибки на выходе. Вход должен равняться выходу (в идеале). Потом вторая часть НС выбрасывается после обучения, на выходе получаешь сжатые признаки, равные кол-ву нейронов в скрытом слое

можно добавить рекуррентные слои и т.п.

в гугле - Автоэнкодер. и их разновидности.

 
Maxim Dmitrievsky:

на вход и выход все фичи, в скрытом слое меньше нейронов. Он просто сжимает инфу через минимизацию ошибки на выходе. Вход должен равняться выходу (в идеале). Потом вторая часть НС выбрасывается после обучения, на выходе получаешь сжатые признаки, равные кол-ву нейронов в скрытом слое

можно добавить рекуррентные слои и т.п.

в гугле - Автоэнкодер. и их разновидности.

Да это всё я понял, спасибо, я просто не понимаю как это обучать сеть давать сразу множества ответов на одну строку выборки. Что там за метрика.  Деревьями такое неясно как сделать можно было бы...

 
Aleksey Vyazmikin:

Да это всё я понял, спасибо, я просто не понимаю как это обучать сеть давать сразу множества ответов на одну строку выборки. Что там за метрика.  Деревьями такое неясно как сделать можно было бы...

Я совсем не специалист, но сначала - декомпозиция, когда одно событие порождает множество возможных его причин. После - рекомпозиция, когда все эти возможные причины анализируются на предмет возможных воздействий, на эти причины влияющие. Итог - небольшое количество параметров, влияя на которые можно управлять событием. 

Причина обращения: