L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 3145

 
Aleksey Nikolayev points de séparation avec la détection des points de changement d'une série temporelle. Dans les deux cas, on cherche généralement à diviser un échantillon unique en deux sous-échantillons maximalement différents.

Ajout. En blanc, le temps est pratiquement une caractéristique nulle

 
Maxim Dmitrievsky #:
Je comprends cela, mais vous pourriez également vous pencher sur la forêt causale. D'ailleurs, je ne l'ai pas étudiée, mais si quelqu'un la trouve, il serait intéressant de lire des expériences à ce sujet.
Je ne comprends pas l'approche de Sanych :) il regarde l'erreur RMS. Ou la valeur efficace dans une fenêtre coulissante.

Non. Mon sko concerne les écarts de "capacité de prédiction". Rien à voir avec l'estimation du modèle lui-même.

 
СанСаныч Фоменко #:

Non. Mon commentaire porte sur les écarts de "capacité prédictive". Elle n'a rien à voir avec l'évaluation du modèle lui-même

Ce n'est pas seulement la vôtre, mais celle de n'importe quelle personne de MOSH :)
La validation croisée est courante.
Pour une raison ou une autre, vous pensez simplement que vous faites quelque chose de différent.

Si vous estimez par le biais de MO, vous obtiendrez des estimations comparables. Parce que cela fonctionne bien, ce n'est pas pire que des estimations faites à la maison.

Ma conclusion est basée sur votre description.
 

Au cours d'une expérience similaire de sélection de caractéristiques informatives, j'ai essayé tous les moyens. Ce n'est pas difficile. En commençant par la corrélation, l'information mutuelle et le knn, en passant par les MCO et les SVM, jusqu'à la forêt, le bousting et les réseaux neuronaux (je n'ai pas touché aux réseaux profonds). Il s'est avéré que c'est le bousting qui est le plus performant. Les MCO arrivent en deuxième position.

Le raisonnement est très simple : si le bousting est réduit à un arbre avec une division, il est possible d'évaluer l'information mutuelle, l'entropie d'échantillon ou de permutation et en partie les MCO.
 
СанСаныч Фоменко #:

Non. Mon sco porte sur les écarts de "capacité prédictive". Cela n'a rien à voir avec l'évaluation du modèle lui-même.

Est-il possible que les paramètres du modèle sautent beaucoup d'une étape à l'autre ? En d'autres termes, malgré un bon "pouvoir prédictif" à chaque étape, la dépendance souhaitée est organisée de manière très différente et change constamment. Dans ce cas, il peut s'agir d'une forme de surentraînement.

 
Maxim Dmitrievsky #:
Si j'ai bien compris, vous pourriez également vous pencher sur la forêt causale. D'ailleurs, je ne l'ai pas étudiée, mais si quelqu'un la comprend, il serait intéressant de lire des comptes rendus d'expériences menées avec elle

Il semble que ce soit la même forêt aléatoire, mais avec une interprétation causale. En tant que vulgarisateur des forêts et maintenant des forêts causales, vous avez donc les cartes en main.)

Pourtant, je ne comprends pas encore l'application de l'analyse causale au commerce. Une recherche rapide sur Google n'a pas permis de trouver des applications directes, seulement des applications indirectes - comme l'étude de l'influence des actions sur le Forex.

 
Aleksey Nikolayev #:

Il semble que ce soit la même forêt aléatoire, mais avec une interprétation causale. En tant que vulgarisateur des forêts et de l'interprétation causale, vous avez donc les cartes en main.)

Pourtant, je ne comprends pas encore l'application de l'interprétation causale au commerce. Une recherche rapide sur Google n'a pas permis de trouver des applications directes, seulement des applications indirectes - comme l'étude de l'influence des actions sur le Forex.

Cela demande beaucoup d'effort mental quand on traite avec l'inconnu :) il n'y a rien de tel sur google, et il n'y avait pas non plus de manuels généraux clairs jusqu'à récemment.
 
Aleksey Nikolayev #:

Est-il possible que, d'une étape à l'autre, les paramètres du modèle sautent beaucoup ? En d'autres termes, malgré une bonne "prévisibilité" à chaque étape, la dépendance souhaitée est organisée de manière très différente et change constamment. Dans ce cas, il pourrait s'agir d'un type de surentraînement.

Dans mon cas, il est impossible de répondre à votre question : le modèle est réentraîné à chaque étape et, naturellement, l'ensemble des caractéristiques peut être différent à chaque étape.

L'erreur de classification varie de 20 % à 10 %. Il n'y a jamais eu d'erreur de 25 %.

 
Maxim Dmitrievsky #:

Au cours d'une expérience similaire de sélection de caractéristiques informatives, j'ai essayé tous les moyens. Ce n'est pas difficile. En commençant par la corrélation, l'information mutuelle et le knn, en passant par les MCO et les SVM, jusqu'à la forêt, le bousting et les réseaux neuronaux (je n'ai pas touché aux réseaux profonds). Il s'est avéré que c'est le bousting qui est le plus performant. Les MCO sont en deuxième position.

Le raisonnement est très simple : si le bousting est réduit à un arbre avec une division, il est possible d'évaluer l'information mutuelle, l'entropie d'échantillon ou de permutation et en partie les MCO.

Aucun des algorithmes susmentionnés ne donne de pouvoir prédictif, pas plus que les centaines d'algorithmes de MO qui calculent stupidement l'importance, qui indique combien de fois l'algorithme utilise une caractéristique : Si l'on donne des déchets à un algorithme de MO, n'importe quel algorithme de MO calculera l'importance de ces déchets.

 
СанСаныч Фоменко #:

Aucun des algorithmes susmentionnés n'a de pouvoir prédictif, pas plus que les centaines d'algorithmes de MO qui calculent stupidement l'importance, qui indique la fréquence d' utilisation d'une caractéristique par l'algorithme : Si vous introduisez des déchets dans un algorithme de MO, n'importe quel algorithme de MO calculera l'importance de ces déchets.

L'erreur de classification/régression donne. Je pense qu'il y a assez de ces jeux étranges à jouer, on tourne en rond :) Et il y a bien une porte pour en sortir.