Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 588

 
Yuriy Asaulenko:

Помнится, у Вас было около 70% адекватных предсказаний. Я вот выше пост написал

Так вот, 70% верных это вообще ни о чем. Из этих 70% верных для входа в  сделки походит пусть примерно треть. Остается 23%. Против 30% неверных предсказаний (а мы не знаем заранее, верные они или нет) это ни о чем. А неверные предсказания как и есть в областях перегиба (изменения направления), и эти области как раз наиболее подходят для сделок.

Исходя из этого, я полагаю, что заниматься прогнозированием бесперспективно, а следует заниматься классификацией. Т.е. определять подходит ли конкретный момент для сделки. По моделям получается ошибка входа 20-40% Более точные цифры приводил ранее в теме.


классификация это прогнозирование принадлежности к классу, или вероятности принадлежности

ничем не отличается от регрессии, из которой потом можно так же извлечь принадлежности

 
СанСаныч Фоменко:

Он меня убедил, что проблема нестационарности не имеет отношения к МО. Так как я никогда не занимался НС, то аргументов опровергнуть это его мнение у меня не было. Более того было интуитивное понимание того, что разные там деревья и прочие , кроме НС, прекрасно работают с нестационарными предикторам.

Я опираюсь на аксиому что какие-то постоянные закономерности в поведении цены всё-же есть, это немарковский процесс. И пытаюсь их найти используя МО.

Различные модели действительно могут отделить зёрна от плевел, и найти закономерности в ценовом потоке состоящим во многом из шума и намеренного его искажения дилинг центрами.
Проблема в том чтобы найти такие параметры обучения модели (для нейронок - количество весов, скорость обучения, итд; а для леса - число деревьев например) при которых модель не будет просто заучивать исходные примеры, и победив нестационарность найдёт какие-то стабильные закономерности во всём этом шуме. Я хорошие параметры для обучения модели нахожу многократными кроссвалидациями.
В итоге у меня модель показывает очень небольшой, но положительный результат как на тренировочных, так и на новых данных (R2 ~0.003). Но спред я ещё не победил.

 
Dr. Trader:

Я опираюсь на аксиому что какие-то постоянные закономерности в поведении цены всё-же есть, это немарковский процесс. И пытаюсь их найти используя МО.

Различные модели действительно могут отделить зёрна от плевел, и найти закономерности в ценовом потоке состоящим во многом из шума и намеренного его искажения дилинг центрами.
Проблема в том чтобы найти такие параметры обучения модели (для нейронок - количество весов, скорость обучения, итд; а для леса - число деревьев например) при которых модель не будет просто заучивать исходные примеры, и победив нестационарность найдёт какие-то стабильные закономерности во всём этом шуме. Я хорошие параметры для обучения модели нахожу многократными кроссвалидациями.
В итоге модель показывает очень небольшой, но положительный результат как на тренировочных, так и на новых данных (R2 ~0.003). Но спред я ещё не победил.

Я тоже не победил, и пока нет просвета. Но на ФОРТС система работает.

Вот СанСаныч на час вперед прогнозирует. Ему этот спред - тьфу.)

 

Для задач классификации проблемы нестационарности не существует. Она реальна для задач регрессии.

Не путайте forecast и predict. Прогнозирование и предсказание суть разные вещи. Прогнозирование как результат - числовая величина с указанием доверительного интервала. Класссификация предсказываеткласс к которому относится пример, вероятность принадлежности примера к классу или поддержку гипотезы, что этот пример принадлежит к классу. 

Удачи

 
Vladimir Perervenko:

Для задач классификации проблемы нестационарности не существует. Она реальна для задач регрессии.

Не путайте forecast и predict. Прогнозирование и предсказание суть разные вещи. Прогнозирование как результат - числовая величина с указанием доверительного интервала. Класссификация предсказываеткласс к которому относится пример, вероятность принадлежности примера к классу или поддержку гипотезы, что этот пример принадлежит к классу. 

Удачи


да всмысле? где почитать про этот абсурд? :)

 
Maxim Dmitrievsky:

да всмысле? где почитать про этот абсурд? :)

Что для Вас кажется абсурдом?
 
Vladimir Perervenko:
Что для Вас кажется абсурдом?

то что из-за нестационарности поменяются закономерности между предикторами\целевой и предсказание классов сломается точно так же как в случае с прогнозированием

 
Maxim Dmitrievsky:

то что из-за нестационарности поменяются закономерности между предикторами\целевой и предсказание классов сломается точно так же как в случае с прогнозированием

Можете показать примером? Или это умозрительное заключение?

Нигде в многочисленной литературе по классификации с использованием NN/DNN не упоминается нестационарность как влияющий фактор. Мои многочисленные эксперименты говорят мне тоже самое. 

Конечно Вы можете иметь собственное мнение по этому вопросу.

Удачи

 
Vladimir Perervenko:

Можете показать примером? Или это умозрительное заключение?

Нигде в многочисленной литературе по классификации с использованием NN/DNN не упоминается нестационарность как влияющий фактор. Мои многочисленные эксперименты говорят мне тоже самое. 

Конечно Вы можете иметь собственное мнение по этому вопросу.

Удачи


а классификация или регрессия.. какая разница?

 

Вышла свежая неплохая книга по глубокому обучению. К сожалению не могу дать открыто ссылку, залита на rutracker.org.

Глубокое обучение
Год издания: 2018
Автор: Николенко С. И., Кадурин А. А., Архангельская Е. О.
Жанр или тематика: Нейронные сети
Издательство: Питер
Серия: Библиотека программиста
ISBN: 978-5-496-02536-2
Язык: Русский
Формат: PDF
Качество: Распознанный текст с ошибками (OCR)
Интерактивное оглавление: Нет
Количество страниц: 479

Причина обращения: