Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 580

 
Yuriy Asaulenko:
Спасибо. Интересно, а монографии есть какие, вообще существуют в природе?

не находил.. только по лесам видел от Бреймана - создателя леса

 
Yuriy Asaulenko:

...

Хотелось-бы чего-то большого и подробного.)


... и основательного.  


Зыков А.А.  Основы теории графов. -- М.: Наука. Гл.ред. физ.-мат. лит., 1987.

Систематическое введение в теорию графов, построенное в соответствии с внутренней логикой её развития.


в сети ссылки есть, где скачать.  

 

а че не инструкция по сборке трактора?

 

Выложена новая версия библиотеки для подключения Питон к МТ5. Напоминаю ссылку https://github.com/RandomKori/Py36MT5 Но есть проблемы. В Визуал студио тестовый проект работает как надо, а в МТ есть непонятные проблемы. Теперь библиотека нормально работает с каталогом в котором находиться скрипт Питон. Как отладить связку с МТ не представляю. МТ защищен от отладчика. Может кто знает как отладить?

 
Maxim Dmitrievsky:

а че не инструкция по сборке трактора?


это ты сострил так?

блин, даю полезную информацию, а в ответ ...   ты как подросток хамишь, и считаешь себя непревзойдённым остряком...  жалкое зрелище.

тебе, наверное, тоже достаточно одной книжки, как тут достаточно некоторым персонажам...

 
Олег avtomat:

это ты сострил так?

блин, даю полезную информацию, а в ответ ...   ты как подросток хамишь, и считаешь себя непревзойдённым остряком...  жалкое зрелище.

тебе, наверное, тоже достаточно одной книжки, как тут достаточно некоторым персонажам...


что там полезного? как строится граф-дерево? оч. полезно.. палка-палка огуречек

из-за этого нужно прочесть всю книгу?

 
Maxim Dmitrievsky:

что там полезного? как строится граф-дерево? оч. полезно.. палка-палка огуречек

из-за этого нужно прочесть всю книгу?


вот потому ты и дёргаешься по верхушкам, т.к. не имеешь основательных знаний, и не хочешь иметь.  Нет у тебя знания и понимания. А для этого одной книжки и нескольких статеек, когда-то тобою осиленных, совершенно недостаточно.

 
Олег avtomat:

вот потому ты и дёргаешься по верхушкам, т.к. не имеешь основательных знаний, и не хочешь иметь.  Нет у тебя знания и понимания. А для этого одной книжки и нескольких статеек, когда-то тобою осиленных, совершенно недостаточно.


как жить, как жить.. паника-паника.. пошел таблицу умножения учить и теорию и онтологию познания

 
Yuriy Asaulenko:
Спасибо. Интересно, а монографии есть какие, вообще существуют в природе?

Прекратите маяться дурью и берите R: код обязательно сопровождается ссылкой на источник, в котором описана теория этого кода.

Вот ссылки по классическом алгоритму Бреймана:

Breiman, L. (2001), Random Forests, Machine Learning 45(1), 5-32.

Breiman, L (2002), “Manual On Setting Up, Using, And Understanding Random Forests V3.1”, http://oz.berkeley.edu/users/breiman/Using_random_forests_V3.1.pdf.


Кроме того, если пользоваться R, то там уже собраны самые разнообразные леса и можно было бы увидеть, что кроме randomForest имеются еще и другие леса, которые уточняют самые разнообразные нюансы первоначальной иди.

Например, randomForestSRC, randomUniformForest.

Самый интересный и эффективный алгоритм из этой же породы - это ada.

Вот ссылки (это все из документации на пакеты R)

Friedman, J. (1999). Greedy Function Approximation: A Gradient Boosting Machine. Technical Report, Department of Statistics, Standford University.

Friedman, J., Hastie, T., and Tibshirani, R. (2000). Additive Logistic Regression: A statistical view of boosting. Annals of Statistics, 28(2), 337-374.

Friedman, J. (2002). Stochastic Gradient Boosting. Coputational Statistics \& Data Analysis 38. Culp, M., Johnson, K., Michailidis, G. (2006). ada: an R Package for Stochastic Boosting Journal of Statistical Software, 16.


Имеется несколько разновидностей этой самой ada.


А вот сам R делает тематические подборки.

По деревьям:

  • Random Forests : The reference implementation of the random forest algorithm for regression and classification is available in package randomForest. Package ipred has bagging for regression, classification and survival analysis as well as bundling, a combination of multiple models via ensemble learning. In addition, a random forest variant for response variables measured at arbitrary scales based on conditional inference trees is implemented in package partyrandomForestSRC implements a unified treatment of Breiman's random forests for survival, regression and classification problems. Quantile regression forests quantregForest allow to regress quantiles of a numeric response on exploratory variables via a random forest approach. For binary data, LogicForest is a forest of logic regression trees (package LogicReg. The varSelRF and Borutapackages focus on variable selection by means for random forest algorithms. In addition, packages ranger and Rborist offer R interfaces to fast C++ implementations of random forests. Reinforcement Learning Trees, featuring splits in variables which will be important down the tree, are implemented in package RLTwsrf implements an alternative variable weighting method for variable subspace selection in place of the traditional random variable sampling.

По очень близким родственникам деревьев:

  • Boosting and Gradient Descent : Various forms of gradient boosting are implemented in package gbm (tree-based functional gradient descent boosting). Package xgboost implements tree-based boosting using efficient trees as base learners for several and also user-defined objective functions. The Hinge-loss is optimized by the boosting implementation in package bst. Package GAMBoost can be used to fit generalized additive models by a boosting algorithm. An extensible boosting framework for generalized linear, additive and nonparametric models is available in package mboost. Likelihood-based boosting for Cox models is implemented in CoxBoost and for mixed models in GMMBoost. GAMLSS models can be fitted using boosting by gamboostLSS. An implementation of various learning algorithms based on Gradient Descent for dealing with regression tasks is available in package gradDescent.

Кроме этого имеются оболочки, например, крайне любопытная для Максима по алгоритму оценки предикторов:

  • CORElearn implements a rather broad class of machine learning algorithms, such as nearest neighbors, trees, random forests, and several feature selection methods. Similar, package rminer interfaces several learning algorithms implemented in other packages and computes several performance measures.



И когда я пишу, что вы пользуетесь сельскими поделухами, то имею ввиду именно следующие обстоятельства:

  • большое количество пользователей
  • это большое количество пользователей хорошо отладило код
  • это большое количество пользователей хорошо документировало
  • это большое количество пользователей  тщательно обсосало теорию
  • это большое количество пользователей создало море публикаций от взаимных терок до практического применения. 
 

AdaBoost не лучше чем bagging для форекса т.к. сильно оверфитится, особенно на данных больших размерностей..  тем более что устарел уже в своем классе, есть же xgboost. а до остального еще дорасти надо :)

в фича импортанс на форехсе тоже не верю.. но полезно поразбираться для общего образования, например допилить gini к алглибу

Причина обращения: