une stratégie commerciale basée sur la théorie des vagues d'Elliott - page 44

 
Voici une autre surprise aujourd'hui. Mon algorithme (que je n'ai pas encore modifié) calcule les canaux de 45 à 1000 barres. Tous les canaux qui répondent au critère CKO23>SCO sont comptés. J'ai supposé que ces chaînes seront entrecoupées de chaînes qui ne répondent pas à ce critère. J'étais censé trouver les meilleures chaînes de chaque série et les sauvegarder. Lorsque je change le signe de CCO23-SCO, le compteur de la série est incrémenté et les limites de la série sont mémorisées, puis le meilleur canal de la série est trouvé à l'intérieur des limites de la série. Mais cet algorithme semble avoir un inconvénient important : la série avec un RMS23-SCO positif ne peut pas être interrompue pendant 1000 barres. Tout ce qui ne peut pas se produire sur le marché est voué à se produire. J'ai essayé de recalculer le canal du matin sur GBPJPY H1 et je n'ai pas compris - le script ne fonctionne pas. C'est un mystère ! J'ai essayé plusieurs fois avant de me méfier. Je l'ai vérifié et c'est confirmé.


 
J'ai essayé de recalculer le canal du matin sur GBPJPY H1 et je ne l'ai pas obtenu - le script ne fonctionne pas. Mystère ! Je l'ai fait tourner plusieurs fois avant d'avoir des doutes. Je l'ai vérifié et c'est confirmé.

J'ai aussi essayé maintenant de calculer GBPJPY H1 sur 1000 barres. J'ai deux canaux de régression linéaire sur les barres 63 et 164.
Je calcule l'échantillon par les prix moyens des barres (O+H+L+C)/4.
 
Hier, j'ai obtenu des résultats insensés en utilisant mon algorithme pour les paires de livres - j'ai dû introduire de toute urgence le contrôle de la construction des canaux et des zones - sinon les EAs se bloquaient avec "une erreur non répertoriée" et ralentissaient le terminal. Cependant, à ma grande surprise, le conseiller expert a cessé de répondre et, au moins, ne s'est pas figé. C'est-à-dire qu'ils sont considérés comme également mauvais (ou bons) et qu'il n'y a pas de possibilité de choisir - toujours perplexe ? ?? Pour les autres paires, tout fonctionne. C'est un peu bizarre. L'algorithme n'est pas lié au script donné. Oui, voyons voir........

Bonne chance et bonnes tendances en matière d'auto-stop.
 
Hier, j'ai obtenu des résultats insensés en utilisant mon algorithme pour les paires de livres - j'ai dû introduire de toute urgence le contrôle de la construction des canaux et des zones - sinon les EAs se bloquaient avec "une erreur non répertoriée" et ralentissaient le terminal. Cependant, à ma grande surprise, le conseiller expert a cessé de répondre et, au moins, ne s'est pas figé. C'est-à-dire qu'ils sont considérés comme également mauvais (ou bons) et qu'il n'y a pas de possibilité de choisir - toujours perplexe ? ?? Pour les autres paires, tout fonctionne. C'est un peu bizarre. L'algorithme n'est pas lié au script ci-dessus.oui, voyons voir....... <br / translate="no">


Pourtant, je soupçonne un dumping dans une boucle infinie (quelque chose comme ça) avec une recherche de canal infructueuse.
Par ailleurs, ce comportement non standard de la livre est peut-être une sorte de signal indiquant qu'elle devient trop bonne pour cet algorithme ?
 
Je ne pense pas que tu le fasses bien. <br / translate="no"> 1. Le chiffre de Hurst fait référence à une série statistique de chiffres. Cela n'a rien à voir avec LR ou parabole.
2. le prix est USD/EUR et le temps est exprimé en secondes, minutes, heures, etc. Ce que vous allez ajouter à quoi. Le rapport R/S dans la figure de Hearst est sans dimension car R et S ont la même dimension. Et c'est la seule raison pour laquelle cela a du sens.
3. Dans la formule H=Log(R/S)/Log(N/2), la valeur N n'est pas le temps, comme on pourrait le penser. N est le nombre d'éléments dans l'échantillon. Le fait que nous ne prenions pas tous les événements, mais seulement une partie d'entre eux (compter par Close, par exemple), en divisant le processus en intervalles de temps égaux, est notre problème et n'a rien à voir avec Hirst.

En effet, vous avez raison. La prise en compte du temps dans ce paramètre est probablement un non-sens !
Jusqu'à présent, je me suis arrêté au calcul initial de la longueur de la courbe comme une simple différence de prix entre des points voisins de la parabole. Subjectivement, j'aime mieux ce calcul que la différence entre les échantillons High-Low jusqu'à présent. Aucune décision finale n'a encore été prise. Nous menons des expériences. Je pense qu'il faudra un certain temps d'observation pour comprendre dans quelle mesure ce mode de calcul R a le droit d'exister.
 
Un autre canal d'hier qui tient toujours la route.

 
Pourtant, je soupçonne qu'il entre dans une boucle infinie (quelque chose comme ça) avec une recherche de chaîne infructueuse. <br / translate="no">Et aussi - ce comportement non standard de la livre - peut-être est-ce un signal quand elle devient trop bonne pour cet algorithme ?


Je pense avoir réussi à reproduire le problème sur l'historique et à le réparer en même temps. Le problème a disparu dès que j'ai remplacé Lowest() ; et Highest() ; par mon propre algorithme de recherche. À propos, ces fonctions ne conviennent pas car on ne sait pas exactement ce qu'elles produisent - la valeur la plus longue/la plus basse de la fonction sur un intervalle donné (ce qui n'est pas approprié) ou un extremum (ce qui est requis), ce qui n'est pas la même chose - il y a des valeurs aux extrémités de l'intervalle et elles peuvent être plus extrêmes que les extrema mais ne sont pas des extrema - alors les échantillons peuvent être incorrects.

Bonne chance et bonne chance avec les tendances.

Je pense que je vais devoir écrire toutes les fonctions par moi-même pour être sûr que les algorithmes fonctionnent et qu'il sera plus facile de les réécrire sur VCPP. :).
 
<br / translate="no">Je pense que j'ai réussi à répéter le problème de l'histoire et à le balayer également. Le problème a disparu dès que j'ai remplacé Lowest() ; et Highest() ; par mon propre algorithme de recherche. À propos, ces fonctions ne conviennent pas car on ne sait pas exactement ce qu'elles produisent - la valeur la plus longue/la plus basse de la fonction sur un intervalle donné (ce qui n'est pas approprié) ou un extremum (ce qui est requis), ce qui n'est pas la même chose - il y a des valeurs aux extrémités de l'intervalle et elles peuvent être plus extrêmes que les extrema mais ne sont pas des extrema - alors les échantillons peuvent être incorrects.

Bonne chance et bonne chance avec les tendances.

Je pense que je vais devoir écrire toutes les fonctions par moi-même pour être sûr que les algorithmes fonctionnent et qu'il sera plus facile de les réécrire sur VCPP. :).


"RE Slawa - réponse à zigzag :)"

dernier poste
 
Cela signifie que ces fonctions donnent des valeurs maximales/minimales dans l'intervalle - ce n'est pas bon dans ce cas : l'échantillon peut inclure des barres non liées à la tendance donnée, ce qui détériore (du moins n'améliore pas) la prévisibilité. A propos, même Murray peut parfois dessiner des niveaux incorrectement à cause de cela - un tel problème était........ Ok, je pense que tout le monde a compris ce qu'on doit réparer.
Pour rechercher Hai, la condition doit être au moins

if((H[k-1]<H[k])&&(H[k]>H[k+1])&&(H[k]>curHi)) pour le minimum de la même manière.

Bonne chance et lancez-vous dans les tendances.
 
if((H[k-1]<H[k])&&(H[k]>H[k+1])&&(H[k]>curHi)) pour le minimum est similaire.

Il ne reste plus qu'à justifier le choix d'une zone suffisante autour du High pour le prendre comme le High de l'échantillon donné. J'en déduis que ce High doit être le point maximal dans un rayon de +-30% de la longueur de l'échantillon ? Si ce n'est pas le cas, l'échantillon doit être augmenté afin de déterminer deux choses ensemble - l'extremum et la longueur de l'échantillon ? Qu'en pensez-vous ?

Vladislav, pensez-vous que vous allez corriger le code de l'indicateur Murray à la lumière des nouvelles informations ? Nous attendons la nouvelle version ;o) !
Raison: