Phénomènes de marché - page 23

 

On s'approche progressivement des modèles, et du phénomène. Ainsi, les modèles stochastiques à structure aléatoire présupposent, bien sûr, les modèles eux-mêmes et une description de la transition entre eux (c'est-à-dire une certaine logique probabiliste d'interception d'un processus par un autre, que ces modèles génèrent). Nous pouvons dire que la BP est décrite par 100 équations différentielles d'Ito, et ensuite il y a une question d'identification des modèles, - quelles fonctions, quels biais, quels coefficients de diffusion pour chacun, quel est le vecteur de probabilité initial des états des systèmes, en général - n'est pas une tâche triviale.

J'ai donc inventé une transformation qui décompose toute série chronologique initiale en deux sous-processus. Je n'ai rien vu de semblable auparavant, mais c'est peut-être l'un des cas particuliers de la représentation canonique des fonctions aléatoires. Qui sait, je ne suis pas un mathématicien professionnel. L'essentiel est de "passer au crible" une grille. Mais peu importe, je ne vais pas encore exposer les mathématiques, je dois m'occuper des idées et du concept. Ce qui est important, c'est qu'après la transformation, nous obtenons seulement deux processus, ces processus sont linéaires mais ont une structure plus compliquée.

Processus aléatoire. Les caractéristiques du processus correspondent aux incréments du M15.

Après la transformation, nous obtenons :

Pour un processus aléatoire, les coefficients b(alpha) et b(omega) dans les modèles, seront modulo les mêmes, la différence de longueurs respectives montrera la prédominance de l'une ou l'autre dynamique, et pour un processus aléatoire la structure interne des processus séparés sera proche de la droite. Il reste encore quelques problèmes théoriques et le développement de meilleurs algorithmes, mais c'est une autre histoire.

En passant, une autre affirmation indirecte (dans le sens pas encore strictement prouvé) est que le processus cité n'est pas aléatoire, puisque les caractéristiques de décomposition sont différentes de celles des BP aléatoires (bien ... pas encore strictement tout là).

Il reste donc la question des probabilités de transition entre les états (processus). Si ces transitions peuvent être considérées comme "markoviennes", alors par la formule de Kolmogorov-Chempen il sera possible d'obtenir les probabilités des états du système à un horizon donné dans le futur.

A propos du phénomène le plus cool (il ne s'agit pas d'une simple branche de phénomènes prêts à l'emploi, comme si la recherche était autorisée ou non ?) Donc, ici, je suis sûr qu'il y a des"modèles stochastiques" (TA n'a rien à voir avec cela), une très forte certitude, j'espère qu'ils seront confirmés. Il est possible que je me trompe et alors, je le sens déjà, c'est effrayant à imaginer, paukas après tout une facture pour le bénéfice perdu sera soumise pour paiement.

 
IgorM:

Je ne comprends pas une chose, pourquoi avez-vous besoin d'analyser Oreps ?

Eh bien, les oppens et les closes sont artificiellement abaissés ou relevés à la clôture de la barre, parfois il semble qu'à la clôture de la barre "il y a un jeu pour redessiner la couleur de la bougie".

Ma théorie est que tout ce que nous obtenons des DT, tous les OHLC sont artificiels. Mais sérieusement, nous devons mesurer le processus à des intervalles de temps égaux (d'une certaine manière, d'un point de vue technique, le DSP est plus familier et plus correct). Les propriétés OHLC ne me semblent pas très différentes.
 
Farnsworth:
Plus sérieusement, vous devez mesurer le processus à des intervalles de temps égaux (la DSP est plus familière et correcte d'un point de vue technique).
NN, tu cherches une sorte d'élan.
 
IgorM:
NN, tu cherches une sorte d'élan.
Non, le momentum (et tous ses dérivés) n'a rien à voir avec cela.
 
Farnsworth:
Ma théorie est que tout ce qu'on obtient de DC, tout l'OHLC, est artificiel. Plus sérieusement, nous devons mesurer le processus à des intervalles de temps égaux (car d'un point de vue technique, le DSP est plus familier et plus correct). Les propriétés OHLC ne me semblent pas très différentes.
Pour le plaisir, vous pourriez essayer de regarder l'alpha en haute-am et l'oméga en basse-am.
 
marketeer:
Par souci d'intérêt, vous pourriez essayer de regarder alpha par high-am et omega par low-am.

Pas une question, seulement dimanche prochain, quand je serai au laboratoire. Je ne pense pas qu'ils changeront fondamentalement, même toutes les caractéristiques de conversion resteront approximativement les mêmes.

à tous

Une fois de plus, je voudrais faire attention, je ne sais pas pour les collègues, mais lorsque pris dans la RMS de l'incrément a donné une tendance - j'ai été très surpris. J'avoue que je m'attendais à quelque chose comme une tendance vagabonde. C'est vraiment une tendance. J'ai montré par exemple le coefficient de détermination, mais c'est un très mauvais indicateur, car il caractérise la qualité de l'ajustement du modèle à la série originale, c'est-à-dire qu'une régression linéaire peut s'adapter parfaitement à n'importe quelle série, même une série aléatoire, et elle montrera que par exemple 95% des séries temporelles sur 10 ans sont expliquées par a+b*x avec une erreur moyenne. Une fois utilisées les caractéristiques fractales, en particulier l'estimation de l'indice de Hurst de plusieurs façons (analyse R/S, variance, écart de variance...). Il prend beaucoup de temps à calculer, mais montre avec confiance la tendance pour un LAMBDA donné, contrairement aux marches aléatoires.

Il y a aussi des subtilités intéressantes, mais c'est beaucoup plus tard.

 
Farnsworth:
Nous espérons arriver à des mathématiques "fractales" plus sérieuses dans l'étude des "queues de pie". Cela prendra un peu plus de temps, mais pour l'instant, je publie une étude quasi-scientifique qui m'a donné quelques idées.

Hypothèses sur le modèle.

...

Taki, c'est beaucoup plus intéressant que ça ne l'était avant.

Voici la question : existe-t-il une corrélation significative entre les comptages, dans les deux processus (tendance linéaire, ce n'est pas vraiment ça). La pensée est simple, si une telle dépendance apparaît, après toutes les transformations, alors les processus (les deux) ont des propriétés qui les distinguent d'une marche aléatoire.

D'ailleurs, on peut aussi l'utiliser pour diviser en processus. C'est-à-dire diviser non pas par la coupure RMS, mais par... je ne sais pas, l'autocorrélation, par exemple.

 
HideYourRichess:

Taki, c'est beaucoup plus intéressant que ça ne l'était avant.

La question est de savoir s'il existe une dépendance significative entre les échantillons dans les deux processus (tendance linéaire, pas vraiment). La pensée est simple, si une telle dépendance apparaît, après toutes les transformations, alors les processus (les deux) ont des propriétés qui les distinguent d'une marche aléatoire.

D'ailleurs, on peut aussi l'utiliser pour diviser en processus. C'est-à-dire diviser non pas par la coupure RMS, mais par... je ne sais pas, l'autocorrélation, par exemple.


D'où viennent les modèles/dépendances ? Vous prenez une période de temps et mettez certains des incréments dans une pile et d'autres dans une autre, en fonction de la valeur. Et quelques points ou un changement de point de référence peuvent modifier la composition de ces "processus". D'où vient la logique de négociation avec une telle ventilation ? Nous allons référencer 20 points sur m15 à omega, mais si nous avions 21 points ce serait différent - c'est alpha :) D'où vient une telle matrice de division des rapatriés ? Comment cela aurait-il pu se passer autrement que même une marche aléatoire, puisque la matrice montre qu'un "processus" obtiendra plus de retours négatifs et l'autre plus de retours positifs ? Bien sûr, un processus aura plus de retombées négatives et l'autre plus de retombées positives ?
 
HideYourRichess:

Taki, c'est beaucoup plus intéressant que ça ne l'était avant.

La question est de savoir s'il existe une dépendance significative entre les comptages dans les deux processus. La pensée est simple, si une telle dépendance apparaît après toutes les transformations, alors les processus ont vraiment des propriétés qui les distinguent de la marche aléatoire.

La corrélation de ces processus n'a pas encore été examinée. D'ailleurs, je ne l'ai pas regardé exprès. La raison principale est que j'ai "retiré" de la série uniquement les comptes qui relevaient de la classification. Les trous apparents ont tout simplement été ignorés. C'est-à-dire que, selon la conception originale, il existe une tendance déterministe, avec une structure plus complexe qu'une simple ligne, mais elle est déterministe. Et ce processus "tendance" est interrompu (exactement interrompu ou détruit) par un autre "processus tueur" plus complexe (queues, oreilles, tout ce qui dépasse). Il est important de noter que ce n'est pas la tendance qui se mélange au bruit, mais plutôt deux processus très complexes qui s'affrontent, l'un créatif, l'autre destructeur.

A utiliser ? - Presque facile :o) Vous pouvez prédire le "processus de portage" avec suffisamment de précision (dans des limites raisonnables), puis, par exemple, en utilisant la méthode de Monte Carlo, estimer la destruction future, ainsi que les niveaux les plus probables d'accumulation des prix après le "crash".

Et je pense que dans ce processus sans fin de création et de destruction de tendances, il doit y avoir ces mêmes "modèles stochastiques". Je les aborde sous différents angles, et voici une autre approche. Mais la philosophie change un peu, il s'avère qu'il y a une tendance, elle est prédéterminée par la nature même de l'entreprise, de la société, du pays, peu importe. Il est unique, c'est-à-dire qu'il n'y a pas de hausses et de baisses. Mais il existe des conditions environnementales dans lesquelles cette tendance ne peut exister dans des conditions idéales, y compris la société elle-même, qui peut la détruire (la tendance). Mais ce ne sont que des paroles, ne faites pas attention.

D'ailleurs, pour diviser un processus, il est également possible d'utiliser ceci. C'est-à-dire diviser non pas par la coupure RMS, mais par... je ne sais pas, par l'autocorrélation, par exemple.

En principe, c'est correct, mais ce n'est pas la seule façon de filtrer.

PS IMPORTANT: Je n'ai pas pu filtrer ce processus en termes de DSP, je n'ai pas pu le filtrer du tout !!! Mais cette méthode primitive a donné des résultats. Je pense que cela devrait bien fonctionner ici, tout ce qui a le préfixe "multi".

Dimanche prochain, j'essaierai d'évaluer les différentes caractéristiques de ces processus particuliers.

 
Avals:

D'où viennent les modèles/dépendances ? Ils ont pris une certaine période de temps et ont mis certains des incréments dans une pile et d'autres dans une autre en fonction de la valeur. Et quelques points ou un changement de point de référence peuvent modifier la composition de ces "processus". D'où vient la logique de négociation avec une telle ventilation ? Nous allons référencer 20 points sur m15 à omega, mais si nous avions 21 points ce serait différent - c'est alpha :) D'où vient une telle matrice de division des rapatriés ? Comment cela aurait-il pu se passer autrement que même une marche aléatoire, puisque la matrice montre qu'un "processus" obtiendra plus de retours négatifs et l'autre plus de retours positifs ? Bien sûr, un processus aura plus de retombées négatives et l'autre plus de retombées positives ?

ce n'est pas si simple. Je me souviens du poste d'Alexei:

Un autre phénomène est la mémoire à long terme.

La plupart d'entre nous (de ceux qui le font, bien sûr) sont habitués à mesurer la mémoire du marché par la corrélation Pearson - plus précisément, l'autocorrélation. Il est bien connu qu'une telle corrélation est de courte durée et significative avec des décalages de 5 à 10 mesures au maximum. On en conclut généralement que si le marché a une mémoire, elle est de très courte durée.

Cependant, la corrélation de Pearson ne permet de mesurer que les relations linéaires entre les barres - et ignore pratiquement les relations non linéaires entre elles. La théorie de la corrélation des processus aléatoires n'est pas appelée linéaire pour rien.

Cependant, il existe des critères statistiques qui nous permettent d'établir le fait d'une relation arbitraire entre des variables aléatoires. Par exemple, le critère du chi-deux - ou le critère de l'information mutuelle. Je n'ai pas vraiment pris la peine de lire le second, mais j'ai pris la peine de lire le premier. Je ne vous expliquerai pas comment l'utiliser : il existe de nombreux manuels sur Internet, qui expliquent comment l'utiliser.

La question principale était la suivante : existe-t-il une relation statistique entre des barres éloignées (par exemple, si un millier de barres les séparent) ? Il n'y avait aucune question sur la façon de l'utiliser dans le commerce.

La réponse est oui, elle existe, et elle est très significative.

Par exemple, si nous prenons l'historique de l'EURUSD de 1999 sur H1 et que nous vérifions le chi-carré pour les retours de paires, nous découvrons que dans la plage de "distances" entre les barres entre 10 et 6000, dans environ 90% des cas, la barre actuelle dépend des barres du passé. 90% ! À des distances entre les barres de plus de 6000, de telles dépendances sont moins fréquentes, mais elles existent toujours !

Franchement, j'ai été stupéfait par cette "découverte" car elle montre directement que l'euro a une mémoire à très long terme. Sur le H1 EURUSD, 6000 barres représentent environ un an. Cela signifie que parmi les barres horaires d'il y a un an, il y a encore des barres dont le zéro actuel "se souvient".

Sur H4, une dépendance significative est trouvée jusqu'à environ 1000-1500 bars. C'est-à-dire que la durée de la "mémoire du marché" est toujours la même - environ un an.

Rappelez-vous Peters qui dit que la mémoire du marché est d'environ 4 ans. Contradiction, cependant... Je ne sais pas encore comment le résoudre.

N'étant pas calmé, j'ai décidé de vérifier si mon chi-carré montrerait de telles dépendances si j'alimentais l'entrée de retours synthétiques générés indépendamment. J'ai choisi deux distributions possibles des rendements synthétiques - normale et Laplace - et je l'ai exécutée. Oui, cela se voit, mais dans les limites du niveau de signification du critère (j'avais 0,01) ! En d'autres termes, le synthétique a montré environ 1% de barres dépendantes dans le passé - juste au niveau de la probabilité de l'erreur de critère.

Quelles sont les conclusions ?

1. Les cours de l'euro ne sont certainement pas un processus de Markov. Dans un processus de Markov, la valeur actuelle ne dépend que de la valeur précédente. Dans notre cas, nous avons de nombreuses barres dans un passé très lointain, dont dépend la barre actuelle.

2) La soi-disant "fondation" joue certainement un certain rôle - disons, comme une excuse pour déplacer les guillemets. Mais ce n'est certainement pas le seul. Nous devons examiner la technique !

3. ce résultat reste purement théorique et n'a aucune importance pratique. Néanmoins, cela montre clairement que tout n'est pas perdu pour ceux qui cherchent quelque chose.

Avals, ne tirez pas de conclusions hâtives...

PS: Et ce qu'Alexey a écrit - je le confirme complètement !!!

Raison: