L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 514

 
Яндекс выложил в открытый доступ новую библиотеку машинного обучения
Яндекс выложил в открытый доступ новую библиотеку машинного обучения
  • 2017.07.18
  • Оксана Мамчуева
  • www.searchengines.ru
Яндекс разработал новый метод машинного обучения CatBoost. Он позволяет эффективно обучать модели на разнородных данных — таких как местонахождение пользователя, история операций и тип устройства. Библиотека машинного обучения CatBoost выложена в открытый доступ, ее могут использовать все желающие. Для работы с CatBoost достаточно установить...
 

Le paquet R est là, super.


2)
install.packages('devtools')
devtools::install_github('catboost/catboost', subdir = 'catboost/R-package')

 

Pourquoi R, je n'y crois pas... ligne de commande ou dll :)

 

J'ai créé un prédicteur de régression par réseau de neurones, il affiche un histogramme du modèle de prédiction de prix actuel pour n barres à venir (15 dans ce cas), s'entraîne pour 5000 barres et se réentraîne toutes les 500 barres. Cela semble bien à première vue, mais bien sûr, cela ne fonctionne pas aussi vite que je le voudrais, car je veux en fait en former plusieurs :)


Et donc, si vous regardez les minutes - la variance est assez faible, bien sûr elle peut être élevée sur les émissions extrêmes, mais en moyenne dans la gamme de 100 points (5 chiffres).

J'ai entouré les plus savoureux d'une flèche.

 
Maxim Dmitrievsky:

Il ne fonctionne pas aussi vite que je le voudrais,

Sur ALGLIB ?

 
elibrarius:

Sur ALGLIB ?


Oui,

bien sûr, vous pouvez vous entortiller avec des NS ou des échafaudages externes, par exemple CatBoost sur le gpu, mais je suis trop paresseux et je n'ai pas le temps de le faire

tout dépend de la vitesse, plus elle est élevée, plus il est difficile de la faire fonctionner dans le testeur.

 

ALGLIB est un frein terrible à l'apprentissage.

A servi 240-50-1 net sur ALGLIB - a attendu 2 jours, n'a pas attendu et l'a fermé.

J'ai formé le réseau 70-5-1 en une demi-heure. Et nnet de R a été entraîné en moins d'une minute avec les mêmes données. Maintenant, j'essaie de le comprendre avec R.

 
elibrarius:

ALGLIB est un frein terrible à l'apprentissage.

A servi 240-50-1 net sur ALGLIB - a attendu 2 jours, n'a pas attendu et l'a fermé.

J'ai formé le réseau 70-5-1 en une demi-heure. Et nnet de R a été entraîné en moins d'une minute avec les mêmes données. Alors maintenant, je suis assis ici à m'occuper de R.


RF plus ou moins, 50 entrées de 5000, 100 arbres, 25 sec en moyenne (sur ordinateur portable). Mais pour l'optimisation, c'est aussi très long. NS est vraiment lent, mais c'est une MLP normale, vous ne devriez pas en attendre autre chose.

J'en ai besoin pour tout apprendre en une seconde au maximum, où le trouver ? )

 

Une fois de plus, je suis convaincu que l'échafaudage ne peut pas extrapoler, peu importe le nombre d'exclamations qui sont faites ici à ce sujet :

au-dessus de la ligne rouge 150 prix d'entraînement (entrées et sorties). Après cela, le marché a commencé à chuter, de nouveaux prix sont apparus, qui n'étaient pas dans l'échantillon d'entraînement (n'ont pas été introduits dans la sortie). La Forêt a commencé à produire comme prévision le prix le plus bas qu'elle connaissait au moment de l'entraînement, c'est-à-dire 1,17320, ce qui correspond à la ligne horizontale. L'histogramme des résidus est donc également faussé.

Les forêts ne savent pas comment EXTRAPLORE. Tous les plus intelligents sont laissés pour la deuxième année pour réapprendre les mathématiques.


  • tout comme les arbres de décision, l'algorithme est totalement incapable d'extrapoler
http://alglib.sources.ru/dataanalysis/decisionforest.php
 

Les prix sans aucune conversion ne sont pas introduits dans le modèle.

L'échafaudage pour l'extrapolation prend la valeur connue la plus proche. Le neurone ou la règle en extrapolation va calculer quelque chose selon les formules internes. Mais en réalité, tous ces modèles fusionneront dans cette situation, il n'y a donc aucune différence.
Raison: