Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 1608

 
Evgeny Dyuka

- не надо искать сложных, навороченных решений, все просто, первый результат я получил на однослойном Sequential 

- прогноз складывает из совокупного мнения 20 моделей 


кажется, одно из двух здесь лишнее... 

 
...:

- не надо искать сложных, навороченных решений, все просто, первый результат я получил на однослойном Sequential 

- прогноз складывает из совокупного мнения 20 моделей 


кажется, одно из двух здесь лишнее... 

Лишнего нет. Модель это такой маленький файлик - результат обучения сети. Если их много ими можно манипулировать.
 
Evgeny Dyuka:

1. почему ансамбль моделей? что их отличает ?  длинна пргноза в будущее или фичи?

или есть еще одна сеть иерархически выше , которая выбирает какую сеть из ансамбля слушать


2. Если все работает хорошо, то зачем публика?  Что мешает самому зарабатывать


3.  полностью свечи + индикаторы + что то хитрее  а что хитрее? )

 
mytarmailS:

1. почему ансамбль моделей? что их отличает ?  длинна пргноза в будущее или фичи?

или есть еще одна сеть иерархически выше , которая выбирает какую сеть из ансамбля слушать


2. Если все работает хорошо, то зачем публика?  Что мешает самому зарабатывать


3.  полностью свечи + индикаторы + что то хитрее  а что хитрее? )

1. входные данные (фичи)
2. как только начинаешь думать категориями "заработать" сразу все скукоживается и стопорится, мозг переключается на тейки, стопы, бэктесты, подборы параметров, а здесь интересна сама тема, исследовательская часть.
3. это ноухау
 
mytarmailS:

1. почему ансамбль моделей? что их отличает ?  длинна пргноза в будущее или фичи?

или есть еще одна сеть иерархически выше , которая выбирает какую сеть из ансамбля слушать


2. Если все работает хорошо, то зачем публика?  Что мешает самому зарабатывать


3.  полностью свечи + индикаторы + что то хитрее  а что хитрее? )

2. С радостью отдам тему сделок на бирже в аутсорсинг.
Могу поставлять сигналы нейро через сокеты+json без всяких фильтров - как есть, т.е. прогноз каждую минуту.
 
Evgeny Dyuka:
2. С радостью отдам тему сделок на бирже в аутсорсинг.
Могу поставлять сигналы нейро через сокеты+json без всяких фильтров - как есть, т.е. прогноз каждую минуту.

Вы можете транслировать сделки тут на MQL  в "сигналы"

И сразу же искать клиентов на подписку... И сделки транслируете, и статистика будет и наглядно все и люди подтянуться когда увидят что зарабатывает и что это не усреднялка галимая, я буду одним из первых кто подпишется, если увижу что вещь. 

 

У меня тут вопрос возник теоритический

есть у нас целевая функция  к которой мы будем приближать модель

есть предикторы, пусть их будет 1000 шт.


Так вот вопрос в том, если у нас оч. много предикторов можно ли их  разделить  на равные части пусть по 100 шт и обучить 10 моделей .

Потом выходы этих 10 моделей подать на новую модель в качестве предикторов. Будет ли это эквивалентом одной модели об ученой изначально на 1000 предикторов сразу??

что то мне подсказывает что нет, но хочу услышать мнения

 
mytarmailS:

У меня тут вопрос возник теоритический

есть у нас целевая функция  к которой мы будем приближать модель

есть предикторы, пусть их будет 1000 шт.


Так вот вопрос в том, если у нас оч. много предикторов можно ли их  разделить  на равные части пусть по 100 шт и обучить 10 моделей .

Потом выходы этих 10 моделей подать на новую модель в качестве предикторов. Будет ли это эквивалентом одной модели об ученой изначально на 1000 предикторов сразу??

что то мне подсказывает что нет, но хочу услышать мнения

это называется стэкинг моделей. Не будет то же самое, но не факт что будет эффективней. Делал так, не увидел улучшений.

Есть другой способ, называется мета обучение. Ты обучаешь первую модель предсказывать классы, затем получаешь результаты и подаешь их во вторую модель, на тех же или других преикторах, которая разрешает\запрещает торговлю первой модели. 1 - торгуем, 0 - не торгуем, в зависимости от кач-ва предсказаний первой, т.е. некий фильтр. Это сильно уменьшает кол-во ошибок на обучающих данных, но не сильно на новых (если модель имеет низкую обобщающую способность). Но само по себе мета обучение - нормальная фиха.

Можно обучать первую модель на одних данных, а мета модель на других данных, на ошибках первой. Варианты могут быть разные. Делал и так и сяк, в целом, улучшения присутствуют, но это больше доводка, нежели способ получить качественную модель, которая будет работать на ООС

Можешь погуглить Marcos Lopez De Prado "meta learning", как раз про трейдинг

 
Maxim Dmitrievsky:

это называется стэкинг моделей. Не будет то же самое, но не факт что будет эффективней. Делал так, не увидел улучшений.

Есть другой способ, называется мета обучение. Ты обучаешь первую модель предсказывать классы, затем получаешь результаты и подаешь их во вторую модель, на тех же или других преикторах, которая разрешает\запрещает торговлю первой модели. 1 - торгуем, 0 - не торгуем, в зависимости от кач-ва предсказаний первой, т.е. некий фильтр. Это сильно уменьшает кол-во ошибок на обучающих данных, но не сильно на новых (если модель имеет низкую обобщающую способность). Но само по себе мета обучение - нормальная фиха.

Можно обучать первую модель на одних данных, а мета модель на других данных, на ошибках первой. Варианты могут быть разные. Делал и так и сяк, в целом, улучшения присутствуют, но это больше доводка, нежели способ получить качественную модель, которая будет работать на ООС

Можешь погуглить Marcos Lopez De Prado "meta learning", как раз про трейдинг

Спасибо за инфу, но я рассматривал  разбиение предикторов на части как способ сэкономить комп. ресурс при обучении, я просто не потяну обучение например 10к предикторов в модели сразу...

Уменьшать размерность предикторов с помощью РСА или чего то другого не хочется  так как сначала нужно выделить значимые предикторы, вот думаю как общую модель разбить на ПОДмодели с минимальными потерями информации

 
mytarmailS:

Спасибо за инфу, но я рассматривал  разбиение предикторов на части как способ сэкономить комп. ресурс при обучении, я просто не потяну обучение например 10к предикторов в модели сразу...

Уменьшать размерность предикторов с помощью РСА или чего то другого не хочется  так как сначала нужно выделить значимые предикторы, вот думаю как общую модель разбить на ПОДмодели с минимальными потерями информации

да какие 10к предикторов. Удали коррелирующие, посмотри важность оставшихся через лес или бустинг и останется 3-10

Причина обращения: