L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 1205

 
Aleksey Nikolayev:

Pourquoi des prix et non des incréments ?

Je ne sais pas ce qui est mieux... et la longueur de l'échantillon peut être modifiée... beaucoup d'agitation avec tout cela

il s'agit plutôt d'interprétabilité... comme s'il n'y avait qu'une seule métrique à interpréter.
 
FxTrader562:

Hi maxim

Y a-t-il un nouvel article dont vous discutez ici ?

Si vous pouvez me fournir le lien ?

Salut, pas encore publié, en attente de modération

 
FxTrader562:

Ok, si vous voulez, vous pouvez me fournir le code pour que je puisse y jeter un coup d'oeil.

Il vaut mieux que vous attendiez l'article, parce que j'ai trop de versions.

 
mytarmailS:

Et il y a une dépendance...

J'ai entraîné le "SMM" (modèle de Markov caché) sur des rapatriés, je l'ai divisé en 10 états et je l'ai enseigné sans professeur, de sorte qu'il a divisé différentes distributions par lui-même.


les distributions des états.


Et ici, j'ai regroupé les rendements par état, c'est-à-dire que chaque ligne correspond à un état de marché distinct.

Certains états (1,4,6,8,9) ont trop peu d'observations et ne peuvent donc pas être pris du tout.

Et maintenant, j'essaierai de régénérer la série, c'est-à-dire de faire une somme cumulative, si l'on trouve une certaine tendance dans certains des états - la régularité dans le sens

J'ai fait une synthèse cumulative.

Les États 5 et 7 présentent un schéma cohérent, 5 pour la baie et 7 pour le village.

vous commencez enfin à aller dans la bonne direction :)

il suffit de forcer l'ensemble avec une simple force brute et de choisir le meilleur modèle.

Avec la déduction logique et la grande méthode de déduction, on ne peut jamais trouver un schéma rentable, il y a trop de variations...
 
Maxim Dmitrievsky:

Vous commencez enfin à aller dans la bonne direction :)

tout ce que vous avez à faire, c'est d'effectuer une simple recherche par force brute et de choisir le meilleur modèle.

Vous ne trouverez jamais un schéma rentable par la déduction logique et la grande méthode de déduction, il y a trop de variantes...

mais ce qui est amusant, c'est que ces états 5 et 7 changent le plus souvent, ils ne sont pas continus dans le temps et une autre chose est qu'ils passent de l'un à l'autre)).


le graphe des transitions d'état


C'est à ça que ça ressemble quand on les échange. Le rouge est la vente et le bleu l'achat


 
Maxim Dmitrievsky:

Maintenant je veux ajouter aux paramètres optimisés la dépendance des signaux aux distributions, je l'ai fait pour le début, pour voir

si le kurtosis est supérieur à une certaine valeur (que nous pouvons choisir), alors nous avons une situation plate et il est possible d'acheter/vendre avec la même probabilité (et ensuite de corriger toutes les erreurs).

en plus de l'asymétrie, s'il y a un certain côté, alors la probabilité du signal d'achat ou de vente est décalée.

C'est une méthode primitive, mais c'est approximativement la façon dont l'optimiseur peut sélectionner les cibles

Tout ce que vous devez obtenir des métriques est l'erreur de classification sur un échantillon de test (à former sur un échantillon de formation). Les hyperparamètres sont énumérés dans l'optimiseur, et le modèle présentant l'erreur la plus faible est sélectionné. Qu'est-ce qui n'est pas interprétable ici ? Il suffit de savoir si un tel modèle peut être généralisé ou non en examinant les erreurs sur les données de test.

Je viens de faire un exemple de comment travailler avec ce genre de merde.


La question réside dans l'interprétabilité du modèle éventuellement choisi (qui sera effectivement négocié).

 
mytarmailS:

mais ce qui est amusant, c'est que ces états 5 et 7 changent le plus fréquemment, ils ne sont pas continus dans le temps et ce qui est également amusant, c'est qu'ils passent de l'un à l'autre)).


diagramme des transitions d'état


C'est à ça que ça ressemble quand on les échange. le rouge vend et le bleu achète


Faites-le avec RL, le modèle de Markov a besoin d'une approximation.

 
Aleksey Nikolayev:

La question qui se pose est celle de l'interprétabilité du modèle résultant (qui sera effectivement négocié).

les modèles inductifs ne sont pas interprétables, en règle générale, qu'il s'agisse de programmation génétique ou de réseaux neuronaux... il faut beaucoup de temps pour les remettre en morceaux

python et r ont probablement des paquets correspondants

exemple pour les arbres
How to visualize decision tree
How to visualize decision tree
  • explained.ai
Decision trees are the fundamental building block of gradient boosting machines and Random Forests(tm), probably the two most popular machine learning models for structured data. Visualizing decision trees is a tremendous aid when learning how these models work and when interpreting models. Unfortunately, current visualization packages are rudimentary and not immediately helpful to the novice. For example, we couldn't find a library that visualizes how decision nodes split up the feature space. So, we've created a general package (part of the animl library) for scikit-learn decision tree visualization and model interpretation.
 
Maxim Dmitrievsky:

Eh bien, si on le fait à travers RL, le modèle de Markov doit être approximé par quelque chose

Pourquoi l'approximer ? Il est déjà divisé en 10 états par l'algorithme de Viterbi, comme un cluster par essence.

Je pense que le prix doit être approximé avant de faire des retours ou de ne pas faire de retours ?

 

Au fait, si quelqu'un veut s'initier à "cmm", voici un article avec du code et des exemples en R.

http://gekkoquant.com/2014/09/07/hidden-markov-models-examples-in-r-part-3-of-4/

Hidden Markov Models – Examples In R – Part 3 of 4
Hidden Markov Models – Examples In R – Part 3 of 4
  • 2014.09.07
  • GekkoQuant
  • gekkoquant.com
This post will explore how to train hidden markov models in R. The previous posts in this series detailed the maths that power the HMM, fortunately all of this has been implemented for us in the RHmm package. HMMs can be used in two ways for regime detection, the first is to use a single HMM where each state in the HMM is considered a “regime”...