une stratégie commerciale basée sur la théorie des vagues d'Elliott - page 189

 
<br / translate="no">Grasn, j'ai une grande demande à vous et à Yurixx: pouvez-vous justifier l'application de l'indice de Hurst au marché des changes ? Le problème est que, comme je l'ai compris de vos précédents messages, vous essayez de construire un modèle de prévision sur cette base, mais quelle est votre logique pour supposer la solvabilité du problème dans une telle formulation ?


Personnellement, je suis guidé par sa bonne adaptation aux règles. Si de {0:0.5} alors le prix est susceptible de s'inverser etc (règles d'utilisation que vous avez décrites précédemment).
 
<br/ translate="no"> Grasn
Oh comment, Neutron, je ne comprends plus rien à ce que tu dis. Auparavant, vous avez souligné en caractères gras que :

... Les résultats suggèrent que les cycles sur le marché des changes existent mais sont stochastiques, c'est-à-dire qu'il n'y a pas de cycles avec une période stationnaire ou quasi-stationnaire...


Grasn, je ne mens pas. Dans le même post, ci-dessous, il est écrit que c'est à cause de l'absence de stationnarité des processus et tendances périodiques qu'ils n'ont aucune valeur pratique ! Il est rigoureusement prouvé mathématiquement que l'on ne peut pas battre à long terme, avec n'importe quel TS, une série temporelle construite en intégrant une série stationnaire avec un gain attendu nul (ceci, avec quelques réserves, est analogue aux séries de prix des instruments monétaires et ressemble au mouvement brownien d'une particule), bien que cette série contienne à la fois des tendances et des fluctuations périodiques, mais elle n'est pas STATIONNAIRE. La bourse a des tendances stationnaires et des fluctuations saisonnières et c'est son avantage, mais le marché financier, malgré toute son imprévisibilité, a ses rebondissements et c'est ce qui m'attire vers lui.
Dans ma stratégie, j'abandonne la recherche de tendances et de cycles et je me concentre sur la recherche de modèles autorégressifs qui décrivent de manière adéquate le comportement actuel des prix. Ce modèle, plus ou moins fiable, prédit plusieurs barres futures. Mais les écarts existant aujourd'hui sont souvent comparables dans leur ampleur à l'amplitude de la prévision, et l'objet de la recherche se réduit donc à la recherche d'un critère permettant d'estimer le choix perspectif de tel ou tel instrument et l'adéquation du modèle de prévision appliqué.



Grasn

Personnellement, je suis guidé par son bon respect des règles. Si de {0:0.5} alors le prix est susceptible de s'inverser etc. (vous avez décrit les règles d'utilisation plus tôt).


Ceci est plus qu'une justification. Je vais prendre le contraire...
Prenons une série temporelle aléatoire (telle que celle décrite dans ce post ci-dessus) et agissons sur elle avec un opérateur de Hurst. Bien sûr, il ne sera pas égal à 1/2, mais se situera autour de cette valeur avec une amplitude qui dépend de la taille de la fenêtre coulissante (plus la fenêtre est grande, moins l'indicateur fait de bruit, mais plus le retard de phase des signaux qu'il génère est important). Par conséquent, nous commettrons une erreur familière, le temps que le signal apparaisse, notre série chronologique aléatoire aura changé et nous nous retrouverons au mieux avec rien. Ceci découle du postulat qu'il est impossible de gagner de manière constante sur une valeur aléatoire.
Passons au marché réel... Grasn, pouvez-vous prouver que le comportement des prix n'est pas aléatoire sur la période que vous avez choisie, et par conséquent, que l'indicateur Hurst fonctionne correctement ?
 
<br / translate="no">Grasn, je ne mens pas. Dans le même post, ci-dessous, il est écrit que c'est à cause de l'absence de stationnarité des processus et tendances périodiques qu'ils n'ont aucune valeur pratique ! Il est strictement prouvé mathématiquement que l'on ne peut pas battre à long terme, avec n'importe quel type de TS, une série temporelle construite en intégrant une série stationnaire avec un gain attendu nul (ceci, avec quelques réserves, est analogue aux séries de prix des instruments monétaires et ressemble au mouvement brownien d'une particule), bien que cette série contienne à la fois des tendances et des fluctuations périodiques, mais elle n'est pas STATIONNAIRE. La bourse a des tendances stationnaires et des fluctuations saisonnières et c'est son avantage, mais le marché financier, malgré toute son imprévisibilité, a ses rebondissements et c'est ce qui m'attire vers lui.
Dans ma stratégie, j'abandonne la recherche de tendances et de cycles et je me concentre sur la recherche de modèles autorégressifs qui décrivent de manière adéquate le comportement actuel des prix. Ce modèle, plus ou moins fiable, prédit plusieurs barres futures. Mais les spreads existants actuellement sont souvent comparables dans leur ampleur à l'amplitude de la prévision, aussi le but de ma recherche est de trouver le critère permettant d'estimer le choix perspectif de tel ou tel instrument et l'adéquation du modèle de prévision utilisé.


Je sais que les tendances, les périodiques ne sont pas stationnaires. Bien sûr, c'est triste, mais ce n'est pas si grave du tout. Le problème est que j'ai "tâtonné" pour trouver un moyen de détecter la fin d'une tendance ou d'un canal en utilisant l'analyse spectrale (basée sur les ondelettes). En combinaison avec d'autres composants du système, il donne de bons résultats.


Ceci est plus qu'une justification. Je vais aller dans l'autre sens...
Prenons une série temporelle aléatoire (telle que celle décrite dans ce post ci-dessus) et agissons sur elle avec un opérateur de Hurst. Bien sûr, il ne sera pas égal à 1/2, mais se situera autour de cette valeur avec une amplitude qui dépend de la taille de la fenêtre coulissante (plus la fenêtre est grande, moins l'indicateur fait de bruit, mais plus le retard de phase des signaux qu'il génère est important). Par conséquent, nous commettrons une erreur familière, le temps que le signal apparaisse, notre série chronologique aléatoire aura changé et nous nous retrouverons au mieux avec rien. Cela découle du postulat selon lequel il est impossible de gagner de manière constante sur une valeur aléatoire.
Passons au marché réel... Grasn, pouvez-vous prouver que le comportement des prix n'est pas aléatoire sur la période que vous avez choisie, et par conséquent, que l'indicateur Hurst fonctionne correctement ?


Bien sûr, cela demande une justification, tout comme votre approche des prévisions. Cela me rappelle un peu la prédiction linéaire par la méthode de Berg. Fonctionne extrêmement mal (que le modérateur me pardonne).

Je n'utilise pas de fenêtre coulissante. Je ne calcule pas l'indicateur comme vous le faites. Le fait que le prix change est un fait incontestable. J'ai donné des exemples de calculs et mon point de vue sur leur utilisation dans mes messages 90-91 :o)
 
Passons au marché réel... Pouvez-vous, Grasn, justifier le caractère non aléatoire du comportement des prix à l'horizon temporel que vous avez choisi et, par conséquent, le fonctionnement correct de l'indicateur de Hurst ?

Je vois que le dialogue devient de plus en plus scientifique. C'est une bonne chose, car cela oblige à aborder les questions principales et à s'éloigner des affirmations non fondées. Cependant, comme tous ici ne sont pas des experts en DSP, en analyse spectrale, en statistiques mathématiques et autres astuces du métier, je propose de formuler les critères qui pourraient être utilisés dans la réponse, tout en soulevant des questions.

En particulier, Neutron, pourriez-vous formuler quel comportement du prix vous appelez aléatoire et ce que vous appelez non-aléatoire. Et, si ceux-ci sont de nature qualitative, pourriez-vous également formuler un critère quantitatif pour le comportement non aléatoire d'une série numérique.
 
[solandr, pensez-vous que les vrais professionnels couvrent l'ensemble de l'écran de travail avec des paraboles ou la "méthodologie du gradient convergent" pour chercher où s'arrête le "capital spéculatif" ? (post 04.10.06 10:11)

Ne tirez pas de conclusions hâtives sur ce qui peut ou ne peut pas être appliqué. Vous ne le savez pas ! Vous avez déjà une expérience similaire (13.11.06:52).

Et si vous voulez mettre les débutants sur la bonne voie, écrivez honnêtement sur les sites web que "seuls 1 à 5 % d'entre vous réussiront quelque chose, et ce sera probablement mauvais et pas toujours bon".

Concernant les 1-5%, vous avez bien sûr tout à fait raison ! Il est simplement extrêmement difficile d'y croire sans explication - c'est tout simplement sa psychologie. Bien que les explications ne soient pas toujours utiles non plus - regardez le site mql4.com : chaque jour, de branche en branche, on pose les mêmes questions auxquelles on a répondu un million de fois en détail, mais les gens continuent à se croire plus intelligents que leurs prédécesseurs ;o))). De la psychologie pure.

Pour ce qui est des paraboles, on peut dire ce qui suit. Les paraboles ne sont qu'une tentative de s'éloigner de la non-stationnarité des régularités périodiques apparaissant sur le Forex. La régression parabolique ne se soucie pas des fréquences d'un échantillon. Il indique simplement les zones dans lesquelles le prix, à son avis, se trouve dans ses positions extrêmes. Bien sûr, tout ne se passe pas toujours exactement comme cela devrait se passer du point de vue d'une régression parabolique, mais c'est la nature stochastique du marché Forex lui-même, qui ne peut être conquise, mais à laquelle il est possible de s'adapter d'une manière ou d'une autre en élaborant une stratégie.

Il y a plus de six mois, je suis arrivé à l'idée que les oscillateurs, dont la tâche principale est d'afficher certains modèles périodiques sur le marché, ne parviennent pas à remplir leur tâche principale en raison de la non-stationnarité des caractéristiques cycliques du marché, comme mentionné ci-dessus. La seule application que je puisse trouver aux oscillateurs est la détection des points de retournement du marché, lorsqu'il est possible d'affirmer avec un très haut degré de probabilité que le prix ne sera pas inférieur ou supérieur à tel ou tel niveau dans 1 à 2 heures. À l'époque, j'ai mis en place un conseiller expert simple basé sur ce principe et il participe maintenant au championnat MTS https://championship.mql5.com/2012/en. Dans le championnat, le risque du conseiller expert est très élevé pour qu'il montre quelque chose. Mais en pratique, avec un risque faible, les gains peuvent être comparés aux intérêts bancaires. En même temps, il peut perdre beaucoup d'argent. C'est tout ce que j'ai pu appliquer avec plus ou moins de succès aux oscillateurs avec des paramètres fixes (ajustés sur des données historiques). Étant donné que nous avons sélectionné un "niveau de basculement" très élevé lors de l'optimisation afin d'obtenir la valeur maximale en pourcentage des positions gagnantes/perdantes, nous voyons un très petit nombre de transactions selon les résultats de l'Expert Advisor. C'est le nombre de "points de bascule" qu'il y a eu au cours du championnat en termes de paramètres adaptés à l'histoire. Je surveille le travail sur un compte de démonstration de test - tout coïncide avec la précision de +/-2 pips.
 
<br/ translate="no" >Yurixx
En particulier, Neutron, pourriez-vous formuler quel comportement de prix vous qualifiez d'aléatoire et de non aléatoire. Et, si ces déterminations sont de nature qualitative, pourriez-vous également formuler un critère quantitatif pour le comportement non aléatoire d'une série numérique.


Il n'y a rien de plus contraire à la raison et à la constance de la nature que le hasard. Dieu lui-même ne peut pas savoir ce qui arrive par hasard. Car s'il le sait, cela se produira certainement, et si cela se produit réellement, ce n'est pas accidentel.
Cicéron. Sur devinatio.


Les moments de corrélation sont une mesure quantitative du degré de relation statistique (dépendance mutuelle ou corrélation) des variables aléatoires Xi et Xj. Le concept de coefficients de corrélation est également utilisé comme une caractéristique normalisée sans dimension du degré de corrélation des variables aléatoires. Les valeurs des coefficients de corrélation r sont comprises entre -1 et +1. Si r = 0, les variables aléatoires sont considérées comme indépendantes les unes des autres, et si |r| = 1, elles sont totalement corrélées (par exemple, les variables X = b*Y avec une valeur arbitraire de b) ; dans tous les autres cas, plus |r| est proche de 1, plus la corrélation entre les variables aléatoires est importante, qui peut être soit en avant soit en arrière (r<0). Par ailleurs, si les coefficients de corrélation de variables aléatoires statistiquement indépendantes sont toujours égaux à zéro, l'affirmation inverse concernant l'indépendance statistique de variables aléatoires si leur coefficient de corrélation est égal à zéro n'est vraie que pour les distributions gaussiennes et est insuffisante dans le cas général.
Un cas particulier de la fonction de corrélation est la fonction d'autocorrélation (AFC), qui est largement utilisée dans l'analyse des signaux. Il s'agit d'un produit statistiquement moyen de valeurs de fonctions aléatoires centrées (résiduelles) aux instants ti et tj et caractérise la composante fluctuante du processus.
Propriétés des fonctions d'autocorrélation et d'autocovariance.
1. Le maximum des fonctions est observé à t=0. Ceci est évident, car à t= 0, le degré de corrélation des échantillons avec lui-même est calculé, ce qui ne peut être inférieur à la corrélation des différents échantillons. La valeur du maximum de la fonction de covariance est égale à la puissance moyenne du signal.
2. Les fonctions d'autocovariance et d'autocorrélation sont paires : r(t) = r(-t). En d'autres termes, les moments mixtes de deux variables aléatoires X(t1) et X(t2) sont indépendants de la séquence dans laquelle ces quantités sont considérées, et sont respectivement symétriques par rapport à leurs arguments.
3. À t tendant vers l'infini &#61472;les valeurs FAC pour les signaux finis en énergie tendent vers zéro, ce qui découle directement de la signification physique de FAC. Cela permet de limiter la longueur de FAC à une certaine valeur maximale tmax - rayon de corrélation, au-delà duquel les comptes peuvent être considérés comme indépendants.
4. Si nous ajoutons une fonction non aléatoire f(t) à la fonction aléatoire X(t), la fonction de corrélation ne change pas.
Calcul de FAC
Soit une série temporelle résiduelle composée de termes x(i), où i va de 0 à n.
Ensuite, le degré de relation entre les membres de la série espacés d'une distance t est défini par la formule: FAC=SUM{x(i)*x(i+k)}/SUM{x(i)^2}), où i prend des valeurs de 0 à n-k.
Il en résulte une valeur unique comprise entre -1 et 1. Le critère du caractère aléatoire est la mesure dans laquelle le résultat est proche de zéro. La réponse à la question "quelle est la proximité ?" peut être obtenue en traitant une série chronologique RARE de même longueur et en recueillant des statistiques suffisantes. D'après ma propre expérience, je peux dire que la valeur de la plus grande valeur absolue de 0,1 présente un intérêt pratique.
L'analyse du FAC de l'instrument monétaire sur l'échelle de temps 1 min, 2 min, etc. jusqu'à, par exemple, 100 min est particulièrement intéressante. Je joins le corrélogramme. Il montre une ligne rouge avec des points bleus pour l'EURUSD 2004, une ligne bleue avec des points rouges pour l'EURCHF, une ligne turquoise avec des points bleus pour l'EURGBP, les croix noires montrent les FAC d'une série temporelle générée par l'intégration d'une valeur RARE stationnaire dont la fonction de distribution et l'écart type sont identiques pour l'EURUSD. Le temps en minutes est tracé en abscisse.
Vous pouvez tirer vos propres conclusions.
 
Tirez vos propres conclusions. <br/ translate="no">

Merci pour ces résultats très intéressants ! Je n'ai pas encore rencontré une telle étude !
D'après l'image, je comprends que nous pouvons conclure qu'une sorte de prédiction n'est possible que pour une courte période de temps, par exemple jusqu'à 100 minutes ? Et les différentes paires de devises ont un potentiel de prévision différent ? En d'autres termes, à en juger par cette image, l'EURUSD est très inefficace pour faire des prévisions ? C'est une conclusion très intéressante, car je pense que la plupart des traders jouent exactement l'EURUSD. D'autre part, il est très intéressant de conclure de cette image que les paires EURCHF et EURGBP sont plus prometteuses pour faire des prévisions pour elles. En général, presque personne ne joue ces paires. Les traders les considèrent simplement comme "à faible volatilité". En réalité, la volatilité moyenne mesurée comme un rapport entre le High-Low et le prix moyen pendant une période quotidienne est approximativement la suivante :
EURUSD 0,8%
EURCHF 0,3%
EURGBP 0,5%
. Comment pensez-vous que ces valeurs peuvent influencer la "prévisibilité" d'une devise ? A en juger par cette image, nous pouvons supposer qu'une plus grande volatilité peut conduire à une plus grande imprévisibilité de la monnaie, au moins pour l'intervalle de temps spécifié jusqu'à 100 minutes ?

Ou peut-être ai-je mal compris quelque chose, alors corrigez-moi s'il vous plaît.

PS : A ce propos, pourriez-vous présenter des images similaires pour les autres devises disponibles sur le Forex ? Il serait très intéressant d'obtenir des résultats similaires pour les monnaies selon le principe ci-dessus. Je "bricole" avec le calcul des corrélations pour le mois dernier également afin de les utiliser pour les prévisions. Je teste l'idée suivante. Nous prenons un échantillon d'une certaine longueur et le comparons à des échantillons de même longueur dans l'histoire. Calculez le coefficient de corrélation. Sélectionnez un échantillon dans l'histoire avec le coefficient de corrélation maximum. Puis nous tirons la partie de l'histoire qui suit l'échantillon le plus coïncident dans le futur, en l'ayant bien sûr recalculée par rapport au prix actuel. Bien sûr, pour une prévision, je construis un échantillon moyen de prévisions de plusieurs longueurs pour "augmenter la probabilité de réussite" ;o). Le principe lui-même rappelle sans doute de très loin les réseaux neuronaux. Quelque chose est comparé à quelque chose et quelque chose est déduit sur cette base. Seulement ce principe est extrêmement simplifié - seul le coefficient de corrélation est comparé et rien de plus ! Il s'avère que c'est intéressant. Pour l'instant, je collecte des statistiques en négociant selon ce principe sur des penny real. Peut-être qu'il en résultera quelque chose ?
 
Comme lecture pour l'âme, je peux vous recommander : http://lib.luksian.com/textsfnf/trans_a/116/.

En bref : sur le déterminisme des processus aléatoires. Je l'ai beaucoup aimé à l'époque.

Je pense que toutes les parties sont ici, y compris la première partie(Fondation) - http://www.izb.su/azimo/..%5Caut76a12.html
 
2 Neutron
Merci pour les détails. Maintenant, je comprends mieux de quoi il s'agit. :-)
J'ai encore quelques questions à clarifier. Avec votre permission.

Un cas particulier de la fonction de corrélation est la fonction d'autocorrélation (AFC), qui est largement utilisée dans l'analyse des signaux. Il s'agit d'un produit statistiquement moyen des valeurs d'une fonction aléatoire centrée (résiduelle) aux instants ti et tj et caractérise la composante de fluctuation du processus.

D'après ce que je comprends, le centrage se fait en soustrayant la moyenne (espérance mathématique) de toute la série. Et alors ? Les valeurs d'une fonction aléatoire aux instants ti et tj sont deux nombres. Comment la moyenne statistique de leur produit est-elle calculée ? Je pensais que FAC est une fonction d'un argument et que cet argument est l'intervalle entre xi et xj, qui est en fait (ti - tj). Comment est-ce que c'est vraiment ?

Soit une série temporelle résiduelle constituée de termes x(i), où i va de 0 à n. Ensuite, le degré de connectivité entre les membres de la série, espacés de t, est déterminé par la formule : FAC=SUM{x(i)*x(i+k)}/SUM{x(i)^2}), où i prend des valeurs de 0 à n-k.

Il y a trop de lettres ici. :-)) La distance t n'est utilisée nulle part dans la formule. Si t et k sont identiques, alors ça me paraît logique. Et cela correspond à ma compréhension de la FAC. Si ce n'est pas le cas, expliquez ce que c'est.

Les croix noires montrent les FAC d'une série temporelle générée par l'intégration d'une valeur RARE stationnaire dont la fonction de distribution et l'écart-type sont identiques à ceux de l'EURUSD.

Comment avez-vous généré cette valeur aléatoire ? Comment calculer le skew de l'EURUSD sur une certaine section de l'historique J'ai une idée, mais je ne sais même pas d'où tirer la fonction de distribution de l'eura. Veuillez partager l'information où vous l'avez obtenue.

Une dernière question. Il s'agit de votre utilisation du mot "délai". En général, dans MT4, ce mot signifie "prix de la division du temps" sur le graphique, c'est-à-dire quelle période de temps correspond à une barre. Cependant, d'après le contexte de votre message, je comprends que vous voulez parler de l'intervalle de temps t, pour lequel le coefficient de corrélation est calculé. Et la totalité de ces valeurs pour tous les t est FAC. Si ce n'est pas le cas, corrigez-moi.

Une dernière chose. Vous avez fait les calculs sur l'historique 2004. Quelles données avez-vous utilisées : M1, M5, etc. ?

Ma méticulosité a une explication précise. Il n'y a pas si longtemps, fatigué de la méthode scientifique de la piqûre, j'ai pensé qu'il devait exister des méthodes objectives pour évaluer si un outil TA particulier a une certaine valeur (par exemple, prédictive) ou non. En général, je suis arrivé à la conclusion que cette estimation peut être une fonction de la corrélation de l'instrument avec le prix. Et le critère est la condition que cette fonction soit supérieure (modulo) à FAC. Pensez-vous que cela soit possible en principe ?

On peut s'intéresser aux indicateurs pour lesquels la fonction de corrélation présente un maximum dans le futur. Et l'intervalle correspondant est l'intervalle de prévision optimal. Il n'est pas évident de savoir lequel des deux a le plus de valeur : le maximum de FC ou le maximum de la différence (FC - FAC).

En bref, j'ai défini un programme de recherche, mais je n'ai pas encore commencé à le mettre en œuvre. Tout d'abord, je n'ai pas encore terminé ce que j'ai commencé auparavant. Et deuxièmement, je n'ai pas encore éliminé les lacunes en matière d'éducation. Je suis donc très heureux de vous voir sur ce forum. J'espère que je ne vous ai pas ennuyé avec des questions. :-)

PS. A en juger par la citation, Cicéron était un ardent athée. En tout cas, il n'avait aucune idée de la dialectique.
Et son idée de ce qu'est Dieu, elle aussi, probablement, ne brillait pas par sa profondeur. Si, bien sûr, il l'a dit sincèrement. :-))
 
Merci pour ces résultats très intéressants ! Je n'ai pas encore rencontré une telle étude ! <br/ translate="no">En jugeant par l'image, je comprends que nous pouvons conclure qu'une certaine forme de prédiction n'est possible que pour une courte période de temps, par exemple jusqu'à 100 minutes ? Et des paires de devises différentes ont un potentiel "prédictif" différent ? En d'autres termes, à en juger par cette image, l'EURUSD est très inefficace pour faire des prévisions ? C'est une conclusion très intéressante, car je pense que la plupart des traders jouent exactement l'EURUSD. D'autre part, il est très intéressant de conclure de cette image que les paires EURCHF et EURGBP sont plus prometteuses pour faire des prévisions pour elles. En général, presque personne ne joue ces paires. Les traders croient simplement qu'ils sont "à faible volatilité". En réalité, la volatilité moyenne mesurée comme un rapport entre le High-Low et le prix moyen pendant une période quotidienne est approximativement la suivante :
EURUSD 0,8%
EURCHF 0,3%
EURGBP 0,5%
. Comment pensez-vous que ces valeurs peuvent influencer la "prévisibilité" d'une devise ? En regardant cette image, nous pouvons supposer qu'une plus grande volatilité peut conduire à une plus grande imprévisibilité de la monnaie, au moins pour un intervalle de temps donné jusqu'à 100 minutes ?

Ou peut-être ai-je mal compris quelque chose, alors corrigez-moi s'il vous plaît.

PS : A ce propos, pourriez-vous présenter des images similaires pour les autres devises disponibles sur le Forex ? Il serait très intéressant d'obtenir des résultats similaires pour les monnaies selon le principe ci-dessus. Je "bricole" avec le calcul des corrélations pour le mois dernier également afin de les utiliser pour les prévisions. Je teste l'idée suivante. Nous prenons un échantillon d'une certaine longueur et le comparons à des échantillons de même longueur dans l'histoire. Calculez le coefficient de corrélation. Sélectionnez un échantillon dans l'histoire avec le coefficient de corrélation maximum. Puis nous tirons la partie de l'histoire qui suit l'échantillon le plus coïncident dans le futur, en l'ayant bien sûr recalculée par rapport au prix actuel. Bien sûr, pour une prévision, je construis un échantillon moyen de prévisions de plusieurs longueurs pour "augmenter la probabilité de réussite" ;o). Le principe lui-même rappelle sans doute de très loin les réseaux neuronaux. Quelque chose est comparé à quelque chose et quelque chose est déduit sur cette base. Seulement ce principe est extrêmement simplifié - seul le coefficient de corrélation est comparé et rien de plus ! Il s'avère que c'est intéressant. Jusqu'à présent, je recueille des statistiques en négociant selon ce principe sur des penny real. Peut-être qu'il en résultera quelque chose ?

Solandr, tu as raison ! C'est exactement les conclusions que je peux tirer en analysant les résultats. En effet, la fiabilité des prévisions de l'un ou l'autre outil diminue rapidement de manière exponentielle à mesure que l'horizon de prévision augmente. Je n'ai volontairement pas affiché les données avec un délai de plus de 100 minutes, non pas parce que je cache quelque chose d'intéressant, mais parce qu'il y a un zéro statistique dans cette partie du corrélogramme. Je tiens à souligner que ces conclusions vont à l'encontre des méthodes courantes de CT, fondées sur l'affirmation de la faisabilité de l'utilisation de grands horizons d'investissement. On peut deviner d'où viennent les racines de ces affirmations. Le fait est qu'une personne réalisant l'importance d'avoir un rendement supérieur à l'écart du DC dans chaque transaction a intuitivement tendance à travailler à des moments où la volatilité de l'instrument est beaucoup plus grande que l'écart existant et donc elle ignore complètement la nature statistique des rendements. Oui, dans chaque transaction individuelle, il gagne ou perd au marché beaucoup plus que le spread, mais en additionnant tous les gains et pertes et en rapportant la valeur obtenue au nombre de transactions, on constate avec horreur que le rendement moyen est bien inférieur au misérable spread ! Parce que le rendement moyen est déterminé non pas par la volatilité de l'instrument, mais par son produit des FAC. Ce point n'est pas considéré... par n'importe qui.
Solandr, la volatilité moyenne que vous obtenez, mesurée par le rapport entre le High-Low et le prix moyen sur une période quotidienne, n'affecte pas la "prévisibilité" d'une monnaie. Au contraire, c'est une conséquence de la prévisibilité sous FAC négative.
Presque toutes les paires que j'ai examinées dans le cadre de l'AEC se situent dans la fourchette indiquée dans la figure. Il est intéressant de constater que l'eurodollar est la paire la plus imprévisible ! Si vous voulez construire des corrélogrammes pour d'autres instruments, vous pouvez utiliser les expressions que j'ai données.
Raison: