L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 2786

 
Valeriy Yastremskiy #:

Dans un processus de Markov, il n'y a pas de dépendance par rapport à la valeur du moment.

Qu'entendez-vous par là, là où vous vous trouvez dans la matrice de transition, vous partez de là.

 
Valeriy Yastremskiy #:

En d'autres termes, si les facteurs sont peu nombreux, le processus est contrôlé, mais après un certain nombre de facteurs, des collisions et des résultats probabilistes de l'addition des facteurs commencent à se produire. En outre, les facteurs peuvent avoir et ont des liens, et il y a des rétroactions. Mais le processus de Markov n'a pas de tels liens.

Il décrit des variables aléatoires - comment peut-il avoir des liens (logiquement, ils sont absents).... Mais s'il existe une matrice, cela signifie que nous pouvons y trouver/décrire/perdre/former des connexions... il s'agit de décrire l'état sous l'influence d'événements... toutes les mêmes statistiques, mais aussi un pas en avant en fonction de l'état (et juste ce pas définit la dynamique de la série statistique de chaque moment)... seulement je suis également confus par le "hasard" dans la formulation de l'ensemble Markovien (mais c'est ce que les statistiques et dim_reduction sont pour).

 
JeeyCi #:

elle décrit des variables aléatoires - où trouve-t-on des liens (logiquement, il n'y en a pas)... mais puisqu'il y a une matrice, cela signifie qu'il est possible d'y trouver/décrire/perdre/former des connexions... Il s'agit de décrire l'état sous l'influence d'événements... toutes les mêmes statistiques, mais aussi un pas en avant en fonction de l'état (et c'est justement ce pas qui détermine la dynamique de la série statistique de chaque moment)... seulement je suis également confus par le "hasard" dans la formulation de l'ensemble Markovien (mais c'est ce que les statistiques et dim_reduction sont pour).

J'ai donné ma compréhension de la physique des processus aléatoires, pour moi il y a 2 variantes, sur le marché la première est quand le nombre de facteurs donne un résultat probabiliste, et la seconde est le résultat d'un processus à basse fréquence par rapport à un processus à haute fréquence, à ce moment là les processus ne sont pas interconnectés.

D'un point de vue philosophique, je comprends que s'il n'y a pas de lien avec les valeurs passées d'une fonction ou d'un processus, le processus sera aléatoire. Mais dans le monde réel, ce n'est généralement pas le cas.

Sur le marché, si nous supposons que les états stationnaires prolongés sont l'effet de certaines forces d'inertie provenant de facteurs forts, ou de facteurs forts prolongés, il est alors possible de les distinguer dans le bruit, et il ne s'agit pas d'un état de Markov. L'approche consistant à distinguer le modèle du modèle SB est tout à fait logique. Mais qu'en faire, logiquement, s'il y a un état non markovien, il est possible d'enquêter, et s'il n'y a pas de différences, il n'y a pas lieu d'enquêter.))))))

 
Maxim Dmitrievsky #:

Qu'est-ce que vous voulez dire par là, c'est là où vous êtes dans la matrice de transition que vous allez.

C'est clair, mais c'est un processus aléatoire, parce qu'il n'y a pas de lien entre la valeur actuelle et la précédente.)))))) Donc, oui, dans la matrice, il y a des valeurs)))))

Les SGC sont construits sur le principe de la minimisation de cette relation à presque zéro).

 

Les méthodes de normalisation de Vladimir Perervenko sont tout simplement étranges - log2(x + 1) reste compréhensible,

mais l'apparition d'une telle bête - se débarrasser de l'asymétrie via sin(2*pi*x)- n'est pas tout à fait claire - logiquement, elle ajoute une composante cyclique, et la question est : pourquoi une telle composante ? ou l'élimine-t-elle ? (si l'on supprime les cycles, on se retrouve avec du bruit)...

et tanh(x) en général ressemble à une imitation du traitement d'un réseau neuronal pour compresser une série... ou une simple déformation de la ligne ? - Il est peu probable qu'il se débarrasse de la cyclicité, et il n'est pas clair laquelle....

Quoi qu'il en soit, il est évident que les séries temporelles = tendance+cycle+bruit...

... mais il peut essayer de se débarrasser de la cyclicité avec de telles transformations (et on ne sait pas si sin(2*pi*x) est une méthode universelle ? ?) ... J'ai d'abord pensé qu'il s'agissait d'une sorte de tentative de mettre un élément d/df dans la série - pour supprimer la cyclicité (en incorporant cette longueur dans les facteurs de signe eux-mêmes ? longueur d'onde dans les facteurs de signes eux-mêmes), pour obtenir une distribution normale, c'est-à-dire une vitesse et une accélération à mettre dans la composition des signes ... ? ? mais la manipulation avec sin semble être une distorsion injustifiée de la série sous l'amplitude mise à l'échelle en fonction de la valeur du signe - je n'ai pas rencontré une telle chose dans le traitement statistique ..... Pourquoi pas cos ? pourquoi pas tanh ? -- Pourquoi ?

L'auteur peut peut-être expliquer l'essence de cette trigonométrie particulière (l'objectif d'éliminer la distribution asymétrique via le logarithme est déjà clair), mais quelles sont les justifications/hypothèses de l'utilisation de sin... pourquoi pas cos... et pourquoi cette courbure ?(accélérera-t-elle le changement de signe ?-plutôt que de simplement l'adoucir parfois).


Renat Akhtyamov #:

on vous a donné des vecteurs, vous avez écrit un article et vous avez été traité comme un bibelot....

quelqu'un pourrait écrire à quel point il faut/peut prendre au sérieux de telles transformations et pourquoi ? (à part le désir de se débarrasser de l'asymétrie avec le logarithme, je pense que ln est la transformation la plus courante).

 
JeeyCi #:

Vladimir Perervenko a juste quelques façons étranges de convertir à la normalité - log2(x + 1) peut encore être essayé de comprendre,

mais l'apparition d'une telle bête - se débarrasser de l'asymétrie via sin(2*pi*x)- n'est pas tout à fait claire - logiquement, elle ajoute une composante cyclique, et la question est, pourquoi une telle composante ? ou l'enlève-t-elle ? (si l'on supprime les cycles, il ne reste que du bruit)....

et tanh(x) en général ressemble à une imitation du traitement d'un réseau neuronal pour compresser une série... ou une simple déformation de la ligne ? - Il est peu probable que l'on se débarrasse des cycles, et l'on ne sait pas très bien lesquels....

Quoi qu'il en soit, il est clair que les séries temporelles = tendance+cycle+bruit...

... mais il peut essayer de se débarrasser de la cyclicité avec de telles transformations (et on ne sait pas si sin(2*pi*x) est une méthode universelle ? ?) ... J'ai d'abord pensé qu'il s'agissait d'une sorte de tentative de mettre un élément d/df dans la série - pour supprimer la cyclicité (en incorporant cette longueur dans les facteurs de signe eux-mêmes ? longueur d'onde dans les facteurs de signes eux-mêmes), pour obtenir une distribution normale, c'est-à-dire une vitesse et une accélération à mettre dans la composition des signes ... ? ? mais la manipulation avec sin semble être une distorsion injustifiée de la série sous l'amplitude mise à l'échelle en fonction de la valeur du signe - je n'ai pas rencontré une telle chose dans le traitement statistique ..... pourquoi pas cos ? pourquoi pas tanh ? -- Pourquoi ?

L'auteur peut peut-être expliquer l'essence de cette trigonométrie particulière (l'objectif d'éliminer la distribution asymétrique via le logarithme est déjà clair), mais quelles sont les justifications/hypothèses de l'utilisation de sin ? pourquoi pas cos ? et pourquoi cette courbure ?(accélérera-t-elle le changement de signe ?-plutôt que de simplement l'adoucir parfois).


Quelqu'un pourrait écrire à quel point on devrait/peut prendre au sérieux de telles transformations et pourquoi ? (à part essayer de se débarrasser de l'asymétrie avec log, je pense que ln est le plus courant).

Je n'ai jamais compris ces transformations non plus, mais il est probable qu'il s'agisse simplement d'un choix de la meilleure transformation parmi les autres. Et il n'y a aucune logique dans ce choix, généralement basé sur des tests.

Les formes des filtres et des antennes en UHF n'ont pas été calculées à l'origine. Oui, et le calcul dans la vie réelle a été finalisé avec un fichier))))).

 
Valeriy Yastremskiy #:

Je n'ai jamais compris ces conversions non plus, mais la plupart du temps, il s'agit simplement d'un choix de l'opinion du sélectionneur de la meilleure conversion parmi les autres. Et il n'y a pas de logique dans ce choix, généralement basé sur des tests.

Les formes des filtres et des antennes en UHF n'ont pas été calculées à l'origine. Oui, et le calcul dans la vie réelle a été finalisé avec un fichier))))).

Vous pouvez simplement comparer les histogrammes de l'échantillon avant et après la conversion. Si l'histogramme final est plus proche de la forme cible (distribution normale ou uniforme, par exemple), alors la transformation est tout à fait appropriée.) Au lieu de dessiner des histogrammes, vous pouvez envisager des tests de conformité à la cible (de normalité ou d'uniformité, respectivement).

Les plaques ne sont-elles pas de forme parabolique ? Tout à fait selon la formule)

 
JeeyCi #:

Vladimir Perervenko a juste quelques manières étranges de convertir à la normalité - log2(x + 1) peut encore être essayé de comprendre,

mais l'apparition d'une telle bête - se débarrasser de l'asymétrie via sin(2*pi*x)- n'est pas tout à fait claire - logiquement, elle ajoute une composante cyclique, et la question est, pourquoi une telle composante ? ou l'enlève-t-elle ? (si l'on supprime les cycles, il ne reste que du bruit)....

et tanh(x) en général ressemble à une imitation du traitement d'un réseau neuronal pour compresser une série... ou une simple déformation de la ligne ? - Il est peu probable que l'on se débarrasse des cycles, et l'on ne sait pas très bien lesquels....

Quoi qu'il en soit, il est clair que les séries temporelles = tendance+cycle+bruit...

... mais il peut essayer de se débarrasser de la cyclicité avec de telles transformations (et on ne sait pas si sin(2*pi*x) est une méthode universelle ? ?) ... J'ai d'abord pensé qu'il s'agissait d'une sorte de tentative de mettre un élément d/df dans la série - pour supprimer la cyclicité (en incorporant cette longueur dans les facteurs de signe eux-mêmes ? longueur d'onde dans les facteurs de signes eux-mêmes), pour obtenir une distribution normale, c'est-à-dire une vitesse et une accélération à mettre dans la composition des signes ... ? ? mais la manipulation avec sin semble être une distorsion injustifiée de la série sous l'amplitude mise à l'échelle en fonction de la valeur du signe - je n'ai pas rencontré une telle chose dans le traitement statistique ..... pourquoi pas cos ? pourquoi pas tanh ? -- Pourquoi ?

L'auteur peut peut-être expliquer l'essence de cette trigonométrie particulière (l'objectif d'éliminer la distribution asymétrique via le logarithme est déjà clair), mais quelles sont les justifications/hypothèses de l'utilisation de sin ? pourquoi pas cos ? et pourquoi cette courbure ?(accélérera-t-elle le changement de signe ?-plutôt que de simplement l'adoucir parfois).


Quelqu'un pourrait écrire à quel point on devrait/peut prendre au sérieux de telles transformations et pourquoi ? (à part essayer de se débarrasser de l'asymétrie avec log, je pense que c'est généralement ln après tout).

Tant que nous sommes au niveau du raisonnement des fonctions trigonométriques ou de quoi que ce soit d'autre à ce niveau, il n'y a pas de justification pour une raison - il est impossible de faire une justification, parce que le but de telles justifications n'est PAS déclaré et que le critère pour atteindre le but est inconnu.


Et l'objectif du MO est le seul - réduire l'erreur d'ajustement, ou plutôt réduire l'erreur de prédiction du modèle d'apprentissage automatique. Et ce, à condition que l'erreur de prédiction ne change PAS beaucoup dans le futur.


Le principal obstacle à la réalisation de cet objectif est la non-stationnarité des séries financières.

La formule " séries temporelles" = tendance+cycle+bruit n'est pas tout à fait exacte. Elle est plus précise et très bien élaborée dans les modèles de type GARCH, qui sont plus d'une centaine, mais aucun d'entre eux ne résout le problème dans sa forme finale, c'est-à-dire comment modéliser la non-stationnarité de la manière la plus précise possible.

Si nous définissons un objectif et un critère pour l'atteindre, les méthodes de traitement de la non-stationnarité n'ont aucune importance, c'est le résultat qui compte. Quoi qu'il en soit, il est clair que plus la série initiale non stationnaire peut être transformée en une série stationnaire, plus l'erreur de prédiction du modèle MO sera faible et, surtout, plus les fluctuations de cette erreur seront faibles.

Vladimir Perervenko le comprend parfaitement, mais ses articles sont plus éducatifs que pratiques - il se contente de montrer des problèmes et de fournir des outils pour les résoudre, et ce de manière très complète et systématique, sans lacunes visibles. Et la sélection des problèmes et des outils pour les résoudre est subordonnée à l'objectif : réduire l'erreur de prédiction.

Vladimir Perervenko
Vladimir Perervenko
  • www.mql5.com
Профиль трейдера
 

Aleksey Vyazmikin a posé une telle question à l' auteur dans les commentaires - il a obtenu un lien vers le fil de discussion - le lien est DESTROYÉ ! l'auteur Vladimir Perervenko s'est-il caché ? )

 

L'idée d'un arbre de décision local m'est venue à l'esprit. Il s'agit d'un analogue du KNN ou de la régression locale (également potentiellement adapté à la non-stationnarité). L'idée est de diviser en boîtes uniquement la boîte contenant le point d'intérêt (jusqu'à au moins un nombre donné de points K) et de ne pas se soucier du reste des boîtes. Cette approche peut être meilleure que le KNN ou la régression locale si les frontières entre les classes sont nettes et que le point est proche de cette frontière.

Je me demande si cette approche a un sens.

Raison: