L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 188

 

La nouvelle version de jPrediction 11 a été publiée

Correction d'un problème mineur (la virgule dans le CSV n'était pas remplacée par un point pour les chiffres). Algorithme amélioré pour sélectionner des prédicteurs significatifs pour les modèles.

Vous pouvez le télécharger sur mon site web (indiqué dans mon profil), premier message de la page principale.

 

Et je voulais aussi écrire sur la sélection des prédicteurs...

En dehors de l'expérience principale, je fais également un peu d'analyse sur un actif d'échange.

Il y a là des volumes normaux, que j'ai également ajoutés aux caractéristiques.

Puis j'ai appliqué le modèle linéaire habituel (régression OLS) [Target ~ Predictor] à chaque prédicteur séparément aux différents résultats (au nombre de 11).

Modèles f-stat calculés. J'ai une photo comme ça :

Et voici une surprise : tous les blocs de prédicteurs liés aux volumes se sont avérés inutiles. Et nous n'avions pas non plus besoin de prédicteurs basés sur l'autocorrélation des augmentations de prix.

Il est également clair que plus le retard de la variable de sortie est important, plus la signification est mauvaise.

Puis j'ai éliminé tous les bruits par F critique (au niveau 0.01).

Ça s'est passé comme ça :

Et ce, sans tenir compte des interactions possibles, malheureusement...

Mais pour certaines entrées, la signification du modèle linéaire n'est pas mauvaise.

 
Alexey Burnakov:


J'essaie de ne pas analyser l'importance des prédicteurs un par un. Il y avait un bon exemple dans le fil de discussion ici :

Il y a deux prédicteurs,dont l'un est visuellement très facile à travailler ; en analysant deux à la fois, on peut voir que la deuxième cible forme des clusters clairs qui peuvent être trouvés par les modèles. Si vous utilisez ces prédicteurs un par un, chacun d'entre eux sera inutile pour la prédiction.

Cette image est purement hypothétique. Mais en ce qui concerne le Forex, je peux juger à partir d'un certain nombre de signes que les bons prédicteurs forment en quelque sorte des clusters similaires, mais j'ai besoin de 30 prédicteurs au lieu de 2.
 
Une fois de plus, Reshetov vous a tous surpassés. La version 11 est juste un miracle. Auparavant, dans la version 10 était telle, que le prédicteur en utilisant plus d'entrées n'a pas augmenté la capacité de généralisation, et a dû se recycler, mais maintenant avec l'augmentation des prédicteurs dans le modèle augmente la capacité de généralisation du modèle dans son ensemble, ainsi, le travail de ces modèles dure plus longtemps et mieux, donc félicitations à vous Yura, mais d'autres peuvent continuer à bavarder et réinventer la roue. Bonne chance !!!!
 
Mihail Marchukajtes:

...

Auparavant, dans la version 10, jPrediction en utilisant plus d'entrées n'augmentait pas la capacité de généralisation, et je devais me réentraîner, mais maintenant, avec plus de prédicteurs dans le modèle, la capacité de généralisation du modèle en général augmente, et le travail de ces modèles dure plus longtemps et est de meilleure qualité...

Merci pour les commentaires !

En testant la version 11 sur les échantillons que je possède, je suis arrivé à une conclusion similaire. Il était nécessaire de confirmer cette conclusion hypothétique par une recherche indépendante (reproduction de l'expérience). Après tout, chacun a des objectifs différents. Il y avait donc un risque potentiel que pour certains problèmes, le classificateur donne des résultats opposés. En outre, le temps nécessaire à la sélection de prédicteurs significatifs dans la nouvelle version a été considérablement augmenté et cela n'a pas plu à tout le monde.

Quant au temps de formation du modèle, vous pouvez potentiellement le diminuer sans détériorer la qualité (généralisabilité) - c'est déjà une question de technique. L'essentiel est d'obtenir un retour d'information constructif à temps pour comprendre : cela vaut-il la peine d'améliorer jPrediction dans cette direction, ou la direction était-elle mauvaise et devrait-elle être ramenée en arrière ? Sinon, nous aurions dû perdre du temps et des efforts sur des fonctionnalités futiles.

 
Vizard_:

...

J'obtiens 92,3%(oos) sur les données que j'utilise.

...

Mes sincères félicitations ! (Si vous ne mentez pas).

Et regrette qu'il soit quelque part dans la nature et pas dans le domaine public.

Il est inutile de discuter de ce qui est dans le domaine public, car il est impossible de prouver ou de réfuter vos "affirmations" concernant jPrediction.

 

Je viens de tomber sur un article traitant d'un sujet qui me semble particulièrement intéressant pour les amateurs de NS.

Ce que j'ai trouvé intéressant, c'est la fin de l'article, qui compare l'erreur de prédictiondans l'échantillon et l'erreur de prédictionhors échantillon: elle le fait par le biais de la corrélation de ces erreurs. Dans ma terminologie, cela signifie que si la corrélation est élevée (dans l'article, 0,8), alors le modèle n'est pas surentraîné.

Predictability in Network Models
Predictability in Network Models
  • Jonas Haslbeck - r
  • www.r-bloggers.com
Network models have become a popular way to abstract complex systems and gain insights into relational patterns among observed variables in almost any area of science. The majority of these applications focuses on analyzing the structure of the network. However, if the network is not directly observed (Alice and Bob are friends) but estimated...
 
Dr. Trader:

J'essaie de ne pas analyser l'importance des prédicteurs un par un. Il y avait un bon exemple dans le fil de discussion ici :

Il y a deux prédicteurs,dont l'un est visuellement très facile à travailler ; en analysant deux à la fois, on peut voir que la deuxième cible forme des clusters clairs qui peuvent être trouvés par les modèles. Si vous utilisez ces prédicteurs un par un, chacun d'entre eux sera inutile dans la prédiction.

Cette image est purement hypothétique. Mais en ce qui concerne le Forex, je peux juger à partir d'un certain nombre de signes que les bons prédicteurs forment d'une manière ou d'une autre des clusters similaires, seulement j'ai besoin non pas de 2, mais de 30 prédicteurs.

D'une manière générale, tout cela est vrai. Il existe une informativité supplémentaire sur les interactions qui dépasse la somme de l'information des intrants marginaux.

Les arbres de décision, les modèles d'interactions de type "begging" et "boosting" sont faciles à utiliser. C'est-à-dire sans aucun effort supplémentaire de la part de l'utilisateur. Les modèles linéaires posent de nombreux problèmes. La régression OLS prend en compte l'ordre d'apparition des prédicteurs... L'ajout alterné des prédicteurs fonctionne en principe, mais l'avidité donne un modèle déséquilibré. Il en va de même pour les forêts et les arbres.

Mais je serais prudent quant à l'inclusion de dizaines de prédicteurs. Pouvez-vous vous imaginer interagir avec 30 variables ? Pour un arbre, ce serait une profondeur d'au moins 30. Il faut une énorme quantité de données pour le simuler sans recyclage sauvage...

En pratique, une profondeur d'interaction de 3-5 est déjà suffisante.

 
Alexey Burnakov:

D'une manière générale, tout cela est vrai. Sur les interactions, il y a une informativité supplémentaire qui dépasse la somme de l'information des entrées marginales.

Les arbres de décision, les modèles d'interactions de type "begging" et "boosting" sont faciles à utiliser. C'est-à-dire sans aucun effort supplémentaire de la part de l'utilisateur. Les modèles linéaires posent de nombreux problèmes. La régression OLS prend en compte l'ordre d'apparition des prédicteurs... L'ajout alterné des prédicteurs fonctionne en principe, mais l'avidité donne un modèle déséquilibré. Il en va de même pour les forêts et les arbres.

Mais je serais prudent quant à l'inclusion de dizaines de prédicteurs. Pouvez-vous vous imaginer interagir avec 30 variables ? Pour un arbre, ce serait une profondeur d'au moins 30. Il faut une énorme quantité de données pour le simuler sans recyclage sauvage...

En pratique, une profondeur d'interaction de 3-5 est déjà suffisante.

Pour moi, l'interaction des prédicteurs est une chose extrêmement douteuse. Il y a tellement de problèmes là.....

Et s'il y a aussi une interaction dans les MCO, c'est tout simplement impensable. Si vous prenez et sur une feuille de papier, écrivez soigneusement toutes les conditions dans lesquelles les MCO peuvent être appliquées. Et ensuite, comparez tout ce qui est écrit sur le papier avec la réalité dans les séries chronologiques financières.

PS.

Si vous prenez presque n'importe quel livre sur le datamining, les procédures pour supprimer les prédicteurs corrélés sont nécessairement décrites.

 
SanSanych Fomenko:

Si vous prenez presque n'importe quel livre sur le datamining, les procédures de suppression des prédicteurs corrélés sont nécessairement décrites.

Si vous prenez n'importe quel livre sur le datamining et que vous appliquez ce que vous lisez au marché, vous verrez que cela ne fonctionne pas..... Peut-être au diable les stéréotypes établis ?
Raison: