Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 3349

 

НЕ более, чем коммерческое предложение в области МО. Существует пару сотен или более моделей МО, которые применяя в рамках изложенного функционала не дают возможности торговать в прибыль. 

Если говорить про предлагаемый функционал, то можно сравнить с пакетом caret, создатели которого понимали, что проблема МО НЕ в моделях, а в препроцессинге и последующей оценке моделей.

 
Этих фишек уже как влаги после дождя
 
МОшники даже не отличают авто мл от фул сайкл :)
Задеплоишь модель, а тебя твои клиенты Досить начнут, а ты платишь за реквесты 😀😀 лучше свой сервак
 
fxsaber #:

В тот же список.

Помню, вы где-то сравнивали макс. профит среди дц. А на конкретном графике какой алгоритм получения макс. профита использовали? Через оптимизацию или есть строгий алгоритм.
 

Методология конформных предсказаний тоже перекликается с козулом, как минимум по части inverse probability weighting. Дальше пока не дочитал. Наплодили определений :)

И точно так же используется определение потенциальных исходов. Но уже более понятно для случая бинарной классификации. То есть не вводится тритмент или инструментальная переменная.

GitHub - valeman/awesome-conformal-prediction: A professionally curated list of awesome Conformal Prediction videos, tutorials, books, papers, PhD and MSc theses, articles and open-source libraries.
GitHub - valeman/awesome-conformal-prediction: A professionally curated list of awesome Conformal Prediction videos, tutorials, books, papers, PhD and MSc theses, articles and open-source libraries.
  • valeman
  • github.com
A professionally curated list of awesome Conformal Prediction videos, tutorials, books, papers, PhD and MSc theses, articles and open-source libraries. - GitHub - valeman/awesome-conformal-predicti...
 
Последние мои 2 статьи, на простом уровне и без нюансов, практически описывают все эти подходы.  Скажем, не описывают, но приближаются. Сейчас уточняю детали, чего они там наисследовали. Например, индуктивная от трансдуктивной конформности отличается только одним или двумя классификаторами, отдельно для каждой метки класса. Вторая лучше (точнее) оценивает постериор. А я использовал индуктивный метод. Еще там нужно переобучать модели с добавлением и выбрасыванием каждого семпла, для более точной оценки. Это очень дорого, но вроде как эффективно. Но можно брать простые и быстрые классификаторы. О чем я тоже писал, обучаясь на пнях.

Не вижу аплодисментов для моей гениальности



 

Привет!

Пробую разные пути.

И алгоритм NN+GA приносит плоды. Намного стабилен.

 
Alexander Ivanov #:

Привет!

Пробую разные пути.

И алгоритм NN+GA приносит плоды. Намного стабилен.

Хочешь сказать, что ты круче меня?
 

чтиво на вечер под водочку, оленинку и огурчик

развивая тему и пытаясь связать в голове подходы их разных МОшных дисциплин

A Gentle Introduction to Conformal Prediction and Distribution-Free Uncertainty Quantification
A Gentle Introduction to Conformal Prediction and Distribution-Free Uncertainty Quantification
  • arxiv.org
Black-box machine learning models are now routinely used in high-risk settings, like medical diagnostics, which demand uncertainty quantification to avoid consequential model failures. Conformal prediction is a user-friendly paradigm for creating statistically rigorous uncertainty sets/intervals for the predictions of such models. Critically, the sets are valid in a distribution-free sense: they possess explicit, non-asymptotic guarantees even without distributional assumptions or model assumptions. One can use conformal prediction with any pre-trained model, such as a neural network, to produce sets that are guaranteed to contain the ground truth with a user-specified probability, such as 90%. It is easy-to-understand, easy-to-use, and general, applying naturally to problems arising in the fields of computer vision, natural language processing, deep reinforcement learning, and so on. This hands-on introduction is aimed to provide the reader a working understanding of conformal...
 
Maxim Dmitrievsky #:

чтиво на вечер под водочку, оленинку и огурчик

развивая тему и пытаясь связать в голове подходы их разных МОшных дисциплин

Приятного аппетита и мягкого похмелья)

Вроде, по сути очень похоже на probabilistic forecasting, хотя пишут что это разные вещи. Насколько понял пока, конформное больше заточено под классификацию, а вероятностное - под регрессию.

Причина обращения: