Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 1291

 
Maxim Dmitrievsky:

не могут вроде.. он с детства не любил овал, он с детства угол рисовал. Там же бинарные сплиты а не сигмоиды

Мне-бы не квадрат-параллелепипед, а хотя-бы многоугольник. Уж-то не могет 2х+3у-7z > N? Всего-то наклонная плоскость. Откуда-же мне знать заранее, что такое разделение самое оно.

 
Yuriy Asaulenko:

Мне-бы не квадрат-параллелепипед, а хотя-бы многоугольник. Уж-то не могет 2х+3у-7z > N? Всего-то плоскость. Откуда-же мне знать заранеt, что такое разделение самое оно.

Да понятно, что в дерево лучше подавать уже готовые признаки для классификации, а вот выделение этих признаков, т.е. создание предикторов - посильная задача для нейросетей.

Кстати, может есть нейросети для кластеризации, когда задачей является поиск преобразованного из других простых признаков более сложного признака на выборке?

 
Yuriy Asaulenko:

Мне-бы не квадрат-параллелепипед, а хотя-бы многоугольник. Уж-то не могет 2х+3у-7z > N? Всего-то плоскость. Откуда-же мне знать заранеt, что такое разделение самое оно.

на заведомо линейно разделяемых точках плохо работает, в остальном разницы говорят никакой. Что-то слышал что лес используется больше для поиска неизвестных "закономерностей", а НС для обработки известных сигналов

 
Aleksey Vyazmikin:

Кстати, может есть нейросети для кластеризации, когда задачей является поиск преобразованного из других простых признаков более сложного признака на выборке?

Вполне посильная задача для НС. Вопрос в подготовке данных, и еще в том, - а есть ли там вообще что искать-преобразовывать? Иначе НС найдет то чего на самом деле нет, т.к. в любых данных всегда найдутся какие-то закономерности.) Прекрасно обучится и будет их стабильно находить, но только на этом ВР.) В других ВР этого просто нет, и НС будет нести всякую чушь. Некоторые путают это с переобучением.

 
Yuriy Asaulenko:

Вполне посильная задача для НС. Вопрос в подготовке данных, и еще в том, - а есть ли там вообще что искать-преобразовывать? Иначе НС найдет то чего на самом деле нет, т.к. в любых данных всегда найдутся какие-то закономерности.) Прекрасно обучится и будет их стабильно находить, но только на этом ВР.) В других ВР этого просто нет, и НС будет нести всякую чушь. Некоторые путают это с переобучением.

Я скорей говорю именно о преобразовании и об обобщении предикторов, к примеру, упрощенно, у нас 2 прдедиктора, и проведение между ними каких либо не сложных математических операций приводит к одному и тому же ответу, то это их общий признак для определения в один кластер, ну совсем примитивно - число в степени ноль, но таких преобразований может быть несколько за счет формул в нейронах и принципа НС.

Такие кластеры, как дополнительные признаки, могут улучшить классификацию уже деревьев/лесов/бустингов.
 
Кстати, ещё одной проблемой автоматического построения деревьев является потеря логических связей внутри групп предикторов. Это когда у Вас есть допустим 10 предикторов для измерения, допустим точки в пространстве, и Вы знаете, что именно комбинация этих предикторов позволит выявить какие либо связи внутри группы, прежде чем добавлять туда связи из других групп предикторов.
 
Yuriy Asaulenko:

Если вы знаете это, и это действительно реально существует (назовем это: цикл развития явления, что опять-таки регулярно повторяющиеся события), то вы можете с легкостью это использовать.

Я могу видеть такие вещи только на истории, когда все уже случилось. На реал-тайм - я пас.) Кстати, это обычное явление, когда идентифицировать сигнал мы можем только после его завершения. В обработке сигналов часто так и делается.

почему только на истории?

смотрим на объемы

максимальное количество тиков всегда в одно и то же время

мы без труда можем прогнозировать и назначить время, в которое будет работать либо трендовая либо флетовая стратеджи

:

 
Renat Akhtyamov:

почему только на истории?

смотрим на объемы

максимальное количество тиков всегда в одно и то же время

мы без труда можем прогнозировать и назначить время, в которое будет работать либо трендовая либо флетовая стратеджи

:

Объёмы помогают прогнозировать смену состояния с тренда на флет но далеко не "без труда", вообще прогнозирование состояния "тренд\флет" не многим точнее, чем направление следующего приращения, за единицу времени, где то в районе 57% по точности, то что говорили про какие то невероятные цифры, явно результат ошибки.

 
Грааль:

Объёмы помогают прогнозировать смену состояния с тренда на флет но далеко не "без труда", вообще прогнозирование состояния "тренд\флет" не многим точнее, чем направление следующего приращения, за единицу времени, где то в районе 57% по точности, то что говорили про какие то невероятные цифры, явно результат ошибки.

что за цифры?

 

Всё ж таки странное и непредсказуемое это дело машинное обучение. Продолжая отладку работу с CatBoost получил модель, которая работает так (обучение+тест+экзамен)

Сделок может и не много (346) с 2014-2019, но зато и просадка средств 1299 за все время, что менее 10%. Конечно в 2014 году был сильный рост, который может уже и не повторится, но после весьма плавненько.

Ниже график только на экзаменационной выборке (условно, так-как выборка меньше, чем этот тест)

Но я не просто графики показываю, такое тут не редкость, а хочу сказать, что сильно удивился, когда посмотрел на содержимое модели - там используется всего 4 предиктора из 38!

TimeH - время в часах

DonProcVisota_M15 - относительная ширина канала Дончиана на M15

LastBarPeresekD_Down_M15 - Число баров с последнего момента пересечения канала Дончиана

BB_PeresekN_Total_M1 - Число пересечений ценой уровней iDelta за последние x баров

Конечно число предикторов у меня большое в выборке, я их дроблю, потом сидирую, и все это укладывается в мою теорию, что деление выборки по принципу жадности не всегда эффективно - это лишь метод, который ничего не гарантирует.

Вот такие модельки я хочу собирать и объединять в пулы.

Причина обращения: