une stratégie commerciale basée sur la théorie des vagues d'Elliott - page 194

 
Et votre question, tout à fait rhétorique, est une façon de ne pas y répondre. C'est l'affaire du propriétaire. <br / translate="no">


Yurixx il n'est pas difficile de répondre, mais faire des prédictions est presque la même chose.
comme prédire le temps. "Predictor" est un souffre-douleur :-))))

Je trade actuellement sur le GBP/USD, la volatilité y est plus élevée que sur l'EUR/USD.
Par conséquent, les opportunités sont plus nombreuses. :)))
 
Yurixx
Supposons que je dispose de deux indicateurs, chacun d'entre eux indiquant la probabilité d'un certain événement (par exemple, que le prix augmente d'au moins N points). Les indicateurs sont naturellement corrélés et leur coefficient de corrélation peut être calculé. Comment calculer la probabilité cumulative d'un événement à partir de ces deux nombres ?

Je ne peux pas donner une preuve stricte de mon affirmation.
Dans ce cas, nous avons affaire à l'analogue d'un détecteur binaire. Que le détecteur indique avec une probabilité p la présence d'une substance dans l'échantillon. Il est clair qu'après avoir effectué un nombre suffisant de mesures N, nous obtiendrons dans p*N cas une confirmation de la présence de la substance donnée si elle est réellement contenue dans l'échantillon et (1-p)*N confirmations de sa présence - si elle n'y est pas. Ainsi, avec une certitude proche de un (comme 1-(1-p)^N), à condition que nous disposions d'un nombre suffisant de N expériences et que (1-p)*N*R*N>N, nous pouvons établir la vérité. Pour cela, il suffit de voir à quelle valeur converge la somme des relevés des détecteurs, vers p*N ou vers (1-p)*N. Il est clair qu'il n'y a pas de différence entre réaliser N expériences successivement avec un seul détecteur ou utiliser N détecteurs simultanément dans une expérience.
Il n'est pas difficile de généraliser cet exemple au cas d'une probabilité arbitraire p[i]>0,5 pour chaque détecteur dans chaque mesure. Par raisonnement analogique :
En effectuant un nombre suffisant de mesures N, nous obtiendrons dans les cas SUM(p[i]) (la sommation est effectuée i=1...N) la confirmation de la présence de la substance donnée si elle est réellement contenue dans l'échantillon, et SUM(1-p[i]) de sa présence - si elle n'est pas là. Il s'avère que si la somme de tous les indicateurs sonores tend vers SUM(p[i]) ou plus, l'événement se produira. Si la somme de tous les indicateurs de signalisation tend vers SUM(1-p[i]) ou moins, l'événement ne se produira pas. Je ne peux pas me prononcer sur la probabilité du résultat dans ce cas général - je n'ai pas suffisamment de connaissances, mais dans le cas particulier, l'événement se produira avec probabilité :
P=1-P(1-p[i]), où le produit est réalisé sur tous les i=0...N, et p[i]>0,5,
si tous les indicateurs N sont signalés simultanément.
 
<br/ translate="no">Je travaille actuellement sur le GBP/USD, qui présente une plus grande volatilité que l'EUR/USD.
Par conséquent, les opportunités sont plus nombreuses. :)))


C'est étrange, j'ai toujours considéré que la volatilité des deux monnaies était à peu près la même. Et le calcul de l'écart relatif moyen des barres quotidiennes (High-Low)/Close par jours de la semaine le confirme :

EURUSD_1440_Jour_de_semaine_1 0.007266
EURUSD_1440_Jour_de_semaine_2 0.007871
EURUSD_1440_Jour_de_semaine_3 0.007981
EURUSD_1440_Jour_de_semaine_4 0,008332
EURUSD_1440_Jour_de_Semaine_5 0.008522

GBPUSD_1440_Jour_de_Semaine_1 0.007224
GBPUSD_1440_Jour_de_Semaine_2 0,007431
GBPUSD_1440_Day_of_Week_3 0.007535
GBPUSD_1440_Day_of_Week_4 0.007863
GBPUSD_1440_Day_of_Week_5 0.008052

Pour calculer chaque valeur, 100 barres quotidiennes ont été prises pour le jour de la semaine correspondant.

Si nous calculons la fourchette absolue moyenne en pips en utilisant la formule (fourchette relative moyenne)*Close[0], cette valeur sera bien sûr différente, car la formule Close[0] est bien sûr différente pour chaque devise. Mais où peut se cacher "plus d'opportunités" ici - ce n'est pas clair du tout ? Parce que le stop loss et le take profit sur le GBPUSD seront simplement mis à l'échelle du rapport entre les monnaies environ 1,5 fois ? La rentabilité de la stratégie elle-même restera donc la même !
 
2 Neutron
Merci pour la volatilité. Je voudrais vous demander votre aide pour une autre question.

Supposons que je dispose de deux indicateurs, chacun d'entre eux indiquant la probabilité d'un certain événement (par exemple, que le prix augmente d'au moins N points). Les indicateurs sont naturellement corrélés et leur coefficient de corrélation peut être calculé. Comment puis-je calculer la probabilité totale d'un événement à partir de ces deux nombres ?

Merci d'avance.

De New Market Wizards (Eckhardt) :
"...Y a-t-il d'autres implications pratiques des méthodes robustes qui différeraient des résultats d'études supposant une distribution de probabilité normale ?
- Une application importante concerne la situation où vous disposez de plusieurs indicateurs pour un marché particulier. Une question se pose : comment combiner plusieurs indicateurs de la manière la plus efficace possible ? Sur la base de certaines mesures statistiques précises, il est possible d'attribuer des pondérations aux différents indicateurs. Cependant, le choix des pondérations attribuées à chaque indicateur est souvent subjectif.
Vous trouverez dans la littérature sur les statistiques robustes que, dans la plupart des cas, la meilleure stratégie n'est pas de pondérer, mais d'attribuer une valeur de 1 ou 0 à chaque indicateur. En d'autres termes, d'accepter ou de rejeter un indicateur. Si un indicateur est suffisamment bon pour être utilisé en principe, il est également suffisamment bon pour se voir attribuer un poids égal aux autres. Et s'il ne répond pas à cette norme, il ne vaut pas la peine de s'en préoccuper.
Le même principe s'applique à la sélection des métiers. Comment répartir au mieux vos actifs entre les différents métiers ? Là encore, je soutiendrai que la répartition doit être égale. Soit l'idée de transaction est suffisamment bonne pour être exécutée - auquel cas il faut l'exécuter intégralement - soit elle ne mérite pas du tout qu'on s'y intéresse."
 
Je viens d'obtenir un résultat incroyable !
Mécontent de mon ignorance des lois théoriques, je me suis empressé d'écrire un code, qui par Montecarlo joue des événements, et y a attaché N indicateurs, dont chacun avec la probabilité p[i] prédit l'événement suivant. J'ai ensuite filtré les cas où TOUS les indicateurs coïncidaient et j'ai calculé le pourcentage de prédiction correcte de l'événement.
Que pensez-vous... La probabilité de prédiction correcte de TOUS les indicateurs UNE FOIS est la moyenne arithmétique des probabilités de chaque indicateur :
P=SUM(p[i])/N, la somme est i=1...N.
Vraiment ? Je suis choqué !
Par conséquent, la probabilité P d'une prédiction correcte de l'événement est plus faible lorsqu'on utilise plusieurs indicateurs ensemble que lorsqu'on utilise un seul des indicateurs les plus fiables ! Autrement dit, l'utilisation conjointe de plusieurs indicateurs n'entraîne pas une augmentation significative de la fiabilité des prédictions.
 
<br / translate="no">Solandr
Je ne sais pas, je pense que j'ai déjà exprimé mes principales pensées sur les écarts ici. Il s'agit toujours des mêmes régressions "convergentes" du premier et du second ordre, que tout le monde ici connaît déjà, je pense.....

Pas du tout, votre approche est très intéressante. J'ai supposé que vous vous baseriez sur des statistiques et une approche "à l'œil". La seule chose à laquelle je pense est de fabriquer une "fenêtre intelligente". C'est-à-dire que notre tâche est de contrôler la tendance actuelle, et donc une éventuelle zone de retournement, en utilisant, par exemple ATR (il faudra un peu réécrire), donc l'algorithme peut être le suivant (présentant l'essentiel de l'idée) :

1. recherche de la tendance actuelle (ou plutôt d'un mouvement de prix intéressant)
2. on trouve une barre, symbolisant le début d'une tendance (mouvement)
Nous fixons (calculons, fixons) une fenêtre en dessous du mouvement par rapport à la barre identifiée
4. Nous évoluons avec le prix et regardons quand l'ATR arrive à la limite.
5. elle s'est approchée - retournement possible
6. fin de la tendance - en chercher une nouvelle, tout répéter

Je ne l'ai pas encore essayé, d'autres travaux sont prévus, mais je le ferai bientôt. En d'autres termes, c'est une façon d'éliminer le délai qui accompagne l'utilisation d'une fenêtre rigide. Ou est-ce que je rate quelque chose, quelque chose de très important dans ATR?:o)


Yurixx, je me suis souvenu de ce qu'est le centrage des rangs ! Si je ne me trompe pas, ça se passe comme ça. Vous avez une série :
X[0], X[1], X[2], X[3], X[4].

La série centrée s'obtient comme suit (c'est plus facile avec une formule qu'avec des mots) :

X[0], aucune valeur
X[1]=(X[0]+ X[1]+ X[2])/3
X[2]=(X[1]+ X[2]+ X[3])/3
X[3]=(X[2]+ X[3]+ X[4]/3
X[4] n'a pas de valeur


Avals

Hourra, ça veut dire que je ne suis pas le seul. Je veux dire, j'ai lu beaucoup d'articles faisant l'éloge de la volatilité, mais je ne comprends pas vraiment ce qu'elle m'apporte. :о)

Par exemple, http://forex.kbpauk.ru/showflat.php/Cat/0/Number/40044/page/0/fpart/1/vc/1


Avals, merci, c'est intéressant.


Neutron

Par conséquent, la probabilité P d'une prédiction correcte d'un événement lors de l'utilisation de plus d'un indicateur est inférieure à celle de l'indicateur le plus fiable seul !!! En d'autres termes, l'utilisation conjointe de plusieurs indicateurs n'entraîne pas une augmentation notable de la fiabilité des prédictions.


C'est vrai. C'est exactement la raison pour laquelle, lors de l'analyse de la stratégie de Vladislav, j'ai laissé l'indicateur Hearst comme indicateur principal (fiable) et abandonné l'approche "concurrente" de sélection de canaux fiables.
 
Un résultat étonnant que je viens d'obtenir ! <br / translate="no"> ...
P=SUM(p[i])/N, la somme est i=1...N.
Vraiment ? Je suis choqué !
Par conséquent, la probabilité P de la prédiction correcte de l'événement lors de l'utilisation simultanée de plusieurs indicateurs est inférieure à celle de l'indicateur le plus fiable seul !!! Autrement dit, l'utilisation conjointe de plusieurs indicateurs n'entraîne pas une augmentation significative de la fiabilité des prédictions.


Eh bien...
Je préférais la conclusion du post précédent. :-))
Probablement parce que j'ai moi-même été guidé par la formule
P=1-P(1-p[i]), où le produit est appliqué à tous les i=0...N, et p[i]>0,5,
si tous les N indicateurs se signalent en même temps.


Peut-être que l'utilisation de plusieurs indicateurs n'augmente pas vraiment la fiabilité des prédictions ? Je ne sais pas. Cependant, mon mode de pensée physique ne veut pas être d'accord avec cette conclusion. Quelque chose en moi me dit qu'il y a quelque chose qui ne va pas ici.

Si les indicateurs étaient indépendants, je serais enclin à me fier à la formule P=1-P(1-p[i]). Cependant, comme tous les indicateurs sont basés sur des séries de prix, il est probable qu'ils soient tous dépendants dans une certaine mesure. C'est pourquoi je ne pouvais pas accepter cette formule sans réserve. Et c'est aussi pourquoi j'ai voulu l'affiner à l'aide du coefficient de corrélation.

La conclusion selon laquelle la probabilité est définie comme une moyenne arithmétique ne me satisfait pas pour les mêmes raisons. Une analyse élémentaire de la signification physique de la situation indique ce qui suit.
Supposons que la probabilité soit effectivement calculée comme la moyenne arithmétique des deux probabilités (de certitude) p1 et p2. Si ces deux indicateurs sont totalement corrélés (c'est-à-dire coeff = 1), alors p1=p2=p0 et (p1+p2)/2=p0 semblent corrects. Mais si coeff =0, il y a une contradiction. Puisque p1 et p2 sont indépendants, nous pouvons mesurer simultanément. Et puis, dans la limite des grands nombres, le rapport entre les résultats positifs et le nombre total de résultats devrait tendre non pas vers la 2e, mais vers la 3e limite : p1, p2 et (p1+p2)/2. Il y a quelque chose qui ne va pas ici.
 
Mmmm... Je suis en train de me planter quelque part ! Évidemment. Mais où ?
 
Mmmm... Je suis en train de me planter quelque part ! Évidemment. Mais où ?


Malheureusement, je ne connais pas la méthode de Monte Carlo. Mais c'est peut-être l'algorithme qui le reproduit ?
Tout comme un générateur de nombres aléatoires ne génère en fait qu'une séquence pseudo-aléatoire ?

Peut-être le problème est-il que ces N indicateurs ne sont pas indépendants, c'est-à-dire qu'ils sont corrélés les uns aux autres ?

Ou peut-être que mes considérations sont erronées ?
 
Je n'ai pas utilisé la méthode de Monte Carlo et je ne pense pas qu'elle soit nécessaire. Mais sur la base des statistiques recueillies, j'ai tiré à peu près les mêmes conclusions de plusieurs indicateurs (paramètres) que j'ai utilisés. L'utilisation d'une seule des plus fiables a donné de meilleurs résultats que l'utilisation de toutes les autres (sans la plus fiable). C'est-à-dire que j'ai exclu séquentiellement les indicateurs du groupe étudié.


Quant à l'existence d'une corrélation entre les indicateurs et les principales conclusions au motif qu'ils sont tous dérivés des mêmes séries primaires, je ne suis pas d'accord pour deux raisons principales :

1 il est certain que tous les indicateurs ne dépendront pas les uns des autres (par exemple, ATR et l'une des MA). C'est facile à vérifier.

2 il y a une utilisation fondamentalement différente de ces indicateurs eux-mêmes, et par conséquent des conclusions (par exemple, MACD et la même MA)
Raison: