Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 1227

 
Кеша Рутов:

Ну вот опять...

Не надоело тебе народ пужать своими триллиардами и инсайдами, знаешь есть пословица "шавка лает, а караван идёт", ненужны нам твои обиды на ДЦ где ты оставил свои последние сто баксов, мир не справедлив, тебе не повезло, а мне повезёт, я с сотни сделаю мильён, а если нет так ещё попробую, пока не получится. 


Подружке поплачься или мамке, не мешай нам мечтать о яхтах и островах и шаг за шагом воплощать свои мечты в реальность. Развелось тут блин всяких "гуру" которые даже не знают от куда Воронова скачать и как отличить тренд от флета, сгиньте нечисти, возвращайтесь в ад.

Скажи сразу - на какой ДЦ работаешь? Пропагандист помечтать.
 

Знаю что никто не пробовал, но вдруг:

сортировка сделок по профиту/просадке, соответственно при разделении на классы наиболе прибыльным сделкам давать больше вероятности, наиболее малоприбыльным в районе 0.5. Т.е. просто отсортировать сделки по эффективности и присвоить им вероятности, понятно что наиболее эффективных сделок окажется меньше, а шумовых больше.

стоит экспериментировать? ошибка должна уменьшиться?

 
Maxim Dmitrievsky:

Знаю что никто не пробовал, но вдруг:

сортировка сделок по профиту/просадке, соответственно при разделении на классы наиболе прибыльным сделкам давать больше вероятности, наиболее малоприбыльным в районе 0.5. Т.е. просто отсортировать сделки по эффективности и присвоить им вероятности, понятно что наиболее эффективных сделок окажется меньше, а шумовых больше.

стоит экспериментировать? ошибка должна уменьшиться?

Это ж регрессия, только не через высоту баров, а по результату сделок (видимо вам для самообучающихся систем надо). Советов давать не буду ибо 5 месяцев вообще МО не занимался и сейчас сам думаю какую бы идею попробовать. Хочется как то автоматически занижать влияние шумовых предикторов. Ведь в начале ветки именно это и было сделано.
 
toxic:

1 2 От части да, модное явление, но это моё мнение, само по себе "глубокое обучение" это собственно не сама регрессия\классификация, а способ извлечения достаточно простых иерархически организованных признаков  из данных определенного типа, например пиксельные картинки рисуемые отраженным светом, поступающие в камеру из "реального мира", сами по себе как яркости пикселей, очень плохие признаки, если их тупо как есть запихнуть в классификатор, а в CNN происходит своего рода "декорреляция соседних пикселей" и сжатие размерности, в несколько проходов, похожее можно сделать если кластеризовать картинки побитые на маленькие форагменты, вообще "глубокое обучение" это вид кластеризации во много проходов а затем подача "высокоуровневых фичей" в обычный классификатор. Тема конечно очень интересная, но её пора развивать теоретически, а не только "ананировать" с нейросетями разной архитектуры обучаемых жудко медленным бэкпропом. Но повторюсь я пока не смог подружить диплернинг с рынком, хотя вопрос открытый, так как пока в этом направлении очень накладно делать эксперименты, как Вы верно заметили.

3 в листья деревьев не обязательно  помещать константы, можно линейные модели, или посложнее, тогда будет "экстраполяция" за пределы облака точек))

4 Вы что то напутали и лесом и бустингом можно делать регрессию, без проблем.

3. То есть можете комбинировать и в листья моделей решающих деревьев помещать другие модели, интересно как это работает, приведите пожалуйста реальный пример.

4. Не напутал и вижу проблему, т.к. пока не встречал реализации на лесах задачи регрессии с множеством выходов (зависимых переменных) как на нейросетях.
Возьмите например функцию построения случайного леса из MQL библиотеки alglib.mqh

//+------------------------------------------------------------------+
//| This subroutine builds random decision forest.                   |
//| INPUT PARAMETERS:                                                |
//|     XY          -   training set                                 |
//|     NPoints     -   training set size, NPoints>=1                |
//|     NVars       -   number of independent variables, NVars>=1    |
//|     NClasses    -   task type:                                   |
//|                     * NClasses=1 - regression task with one      |
//|                                    dependent variable            |
//|                     * NClasses>1 - classification task with      |
//|                                    NClasses classes.             |

т.е. при количестве зависимых переменных NClasses более одной эта функция может решать только задачу классификации. Приведите свою реализацию с решением этой проблемы, и пожалуйста в коде, ведь мы на форуме программистов:)

 
Maxim Dmitrievsky:

Знаю что никто не пробовал, но вдруг:

сортировка сделок по профиту/просадке, соответственно при разделении на классы наиболе прибыльным сделкам давать больше вероятности, наиболее малоприбыльным в районе 0.5. Т.е. просто отсортировать сделки по эффективности и присвоить им вероятности, понятно что наиболее эффективных сделок окажется меньше, а шумовых больше.

стоит экспериментировать? ошибка должна уменьшиться?

Если это в тестере и для того, что бы, косвенным образом, через прибыльность сделок, выйти на правильные точки входа, то почему бы не найти их сразу и идеальные, по ценовому ряду, правда я уже это спрашивал в ветке Монте-Карло:)
 
Ivan Negreshniy:
Если это в тестере и для того, что бы, косвенным образом, через прибыльность сделок, выйти на правильные точки входа, то почему бы не найти их сразу и идеальные, по ценовому ряду, правда я уже это спрашивал в ветке Монте-Карло:)

тогда будет мало примеров, и на новых данных нс станет слепой потеряшкой, надо что бы она "видела" в своей жизни как можно больше

нельзя так тупо взять и подать по идеальному зигзагу - фичи потом фиг подберешь, это должен быть обоюдоострый процесс перебора всего и вся одновременно :)

уже думаю а не взять ли больше классов, вместо 2-х

 
Maxim Dmitrievsky:

тогда будет мало примеров, и на новых данных нс станет слепой потеряшкой, надо что бы она "видела" в своей жизни как можно больше

логично, но с другой стороны м.б. лучше чтоб она меньше видела и торговала только верняк, чем непрерывно сигналила и взвинчивала риск.
 
Ivan Negreshniy:
логично, но с другой стороны м.б. лучше чтоб она меньше видела и торговала только верняк, чем непрерывно сигналила и взвинчивала риск.

ну по тестовой выборке смотрю ошибки всегда, этот "верняк" только человеку таковым кажется, нс то "думает" по другому

мыслю как мыслит нейросеть.. ей пофиг верняк это или не верняк, главное как обобщить способна

так вот если всякий кал помещать в диапазон 0.5, а выбросы будут качественными трейдами, не улучшится ли обобщающая способность.. нужно проверять, естественно все это монте карлить потому что на глаз ничего не сделаешь
 
Maxim Dmitrievsky:

тогда будет мало примеров, и на новых данных нс станет слепой потеряшкой, надо что бы она "видела" в своей жизни как можно больше

как вариант ....

1) Создать "идеальную торговлю" с размеченными сделками,  торговля+комиссия,  самый прибыльный вариант который только может быть...  Получиться что то  типа зигзага где на вершинках и впадинах будут сделки...

2) Строим еквити этой идеальной торговли 

3) Обучаем модель. Цель обучения - достигнуть  максимальной корреляции  (еквити торговли модели+комиссия)  с  (идеальной еквити)   те качество модели можно выразить одной цифровой, кф корреляции

Таким образом модель максимально мягко и максимально точно сможет подстроиться под данные

Ну и конечно при обучении про OOS  не забываем

пс. Все что написал чистая теория

 
mytarmailS:

как вариант ....

1) Создать "идеальную торговлю" с размеченными сделками,  торговля+комиссия,  самый прибыльный вариант который только может быть...  Получиться что то  типа зигзага где на вершинках и впадинах будут сделки...

2) Строим еквити этой идеальной торговли 

3) Обучаем модель. Цель обучения - достигнуть  максимальной корреляции  (еквити торговли модели+комиссия)  с  (идеальной еквити)   те качество модели можно выразить одной цифровой, кф корреляции

Таким образом модель максимально мягко и максимально точно сможет подстроиться под данные

Ну и конечно при обучении про OOS  не забываем

пс. Все что написал чистая теория

по сути так и сделано, но можно варьировать степень "идеального эквити", потмоу что чем оно идеальнее тем больше переобучения

ошибка на трейне: 0, на оос: 0.4.

"идеальная" торговля, с учетом оос (внутри), убыточных сделок всего 15%, что соответствует размеру ООС (здесь-20%). Несложно догадаться что будет на новых данных


Причина обращения: