De la théorie à la pratique - page 149

 

Ce qui me trouble, c'est ceci.

Feynman, bien sûr, était un génie. Il étudiait donc le mouvement des particules quantiques à des intervalles d'observation uniformes, alors que je m'intéresse aux intervalles exponentiels... Et il regardait l'uniforme... Hmm...

 
 
Alexander_K2:

Puisque ma fille bien-aimée et mon beau-père me secouent les seins et exigent une amélioration immédiate de mon TS afin d'en tirer un bénéfice, je vais écrire brièvement.

Voici donc l'algorithme que j'ai mis au point (voir le tableau ci-joint pour AUDCAD) :

1. Réception de devis dans des intervalles de temps exponentiels.

Colonne A - prix de l'offre

Colonne B - Prix demandé

Colonne C - prix (Ask+Bid)/2 - Je travaille avec, peut-être que je me trompe.

Commentaire : Je ramène le flux de citations à un processus de Markov avec des pseudo-états où les moments intégraux d'une variable aléatoire peuvent être ignorés et l'équation du mouvement est réduite à l'équation du mouvement d'une particule quantique entre deux murs. Les murs sont dans ce cas les valeurs limites de dispersion d'une variable aléatoire. 2.

2) Analysons les incréments de prix Ask et Bid.

Les colonnes D, E, F sont les incréments pour Bid, Ask et (Ask+Bid)/2 respectivement.

Je travaille avec les valeurs pures des dégradés sans les transformer d'aucune manière.

3. Calculez les paramètres statistiques pour la colonne F (voir feuille 1 du tableau). La chose la plus importante est de trouver un volume d'échantillon pour la fenêtre glissante d'observations

C'est une étape très importante ! !! Sur la base de l'inégalité de Chebyshev, nous trouvons la taille d'échantillon requise pour laquelle les valeurs limites de la variance correspondront au niveau de confiance de la prévision.

4. Revenons à l'onglet AUDCAD du tableau et allons à la ligne 15625

Colonne M - Calculez la longueur du parcours de la particule dans notre fenêtre glissante d'observations = 15625 citations consécutives.

Colonnes N et O - Valeurs limites de la déviation probable de la particule ("paroi")

5. Déplacement vers la feuille 2 du tableau

J'y ai copié les colonnes A, N, M, O à partir de la ligne 15625 de l'onglet AUDCAD.

6. Je construis des diagrammes :

Graphique du haut - valeurs réelles des prix (Ask+Bid)/2

Graphique inférieur - valeurs des colonnes B, C et D - nous voyons réellement le mouvement des particules entre les parois (dans le canal dynamique)

Un point très important

J'ai calculé la dispersion (colonnes C et D) de la même manière dans mon modèle. Mais j'ai tracé le canal contre la moyenne mobile SMA pour l'échantillon 15625. La colonne B était manquante.

J'étais sur le point de passer à la WMA, où le temps devait être utilisé comme poids.

Les résultats ont été très satisfaisants - sur 6 trades - 4 positifs et 2 négatifs avec un profit total de plus de 400 pips.

Et à ce moment crucial, Warlock (Vizard_) s'est connecté et m'a réellement dit avec sa carte (à la main !!!): Idiot ! Pourquoi travaillez-vous avec une moyenne mobile ? Vous regardez comment la particule elle-même se déplace (la somme des incréments sur le temps d'observation) - elle se déplace par rapport à zéro entre les murs !!!

Je calcule maintenant la colonne B et je vois l'image suivante :

Dans le graphique inférieur - mouvement de la particule dans la fenêtre d'observation glissante = 15625 avec des niveaux de confiance limites = 99,5%.

UNE SOLUTION INGÉNIEUSE !

Vous pouvez et devez faire des prévisions lorsque le prix dépasse ces niveaux de confiance.

Ou vous pouvez simplement - lorsqu'une particule quitte les limites du canal sur le graphique inférieur - ouvrir une transaction. Quand il revient à zéro, fermez-le, etc. Mais je ne vais pas imposer mon opinion - chacun est libre d'élaborer son propre algorithme de prévision.

Mais pour être honnête, je ne suis pas sûr que j'y serais arrivé par mes propres moyens - merci encore àVizard.

Il ne me reste plus qu'à remplacer le WMA coulissant dans mon TS au sens figuré par la colonne B, et quelqu'un devrait comprendre tout ce qui est décrit ci-dessus, poser des questions si nécessaire, et faire mon propre TS.

Gagnez de l'argent par vous-même ! Personnellement, je ne suis pas désolé et je n'ai pas besoin de trouver d'ambiguïté dans mes propos.

Mon beau-père a fini par devenir violent et obscène, ce qui m'a poussé à m'asseoir et à finir le TS.

Je fais mes adieux, mais pas un adieu. Je suis toujours là et un peu absent - enfin, vous voyez l'idée. Le chat de Schrodinger, en un mot. :))))))))))))))))

https://yadi.sk/d/Q26c4qoS3RbJRn
Détendre et travailler à partir des bords du canal vers son centre - vous appelez cela la solution la plus ingénieuse inventée à l'époque du roi des pois ?))))) "Oh, combien de découvertes merveilleuses l'esprit d'illumination nous prépare-t-il.")
 
Alexander_K2:

Ce qui me trouble, c'est ceci.

Feynman, bien sûr, était un génie. Il étudiait donc le mouvement des particules quantiques à des intervalles d'observation uniformes, alors que je m'intéresse aux intervalles exponentiels... Et il regardait l'uniforme... Hmm...

C'est facile à expliquer - tu es juste plus génial que lui. Ici, sur ce forum en général, un génie s'assoit un génie et conduit un génie, les lauréats du prix Nobel les laissent se reposer).

 
khorosh:
Détendre et travailler des bords du canal vers le centre du canal - vous appelez cela la solution la plus ingénieuse inventée à l'époque du roi des pois ?))))
Je négocie le forex depuis seulement 3 mois. Si cet algorithme est utilisé avec succès depuis longtemps, j'en suis heureux. Je peux clore le sujet à ce stade.
 
Alexander_K2:
Je ne fais du forex que depuis trois mois. Si cet algorithme est utilisé avec succès depuis longtemps, j'en suis heureux. C'est la fin du sujet.
Le succès de cet algorithme est un concept relatif. Elle sera fructueuse pendant la période plate, tandis qu'elle échouera pendant une tendance plate. Si vous parvenez à identifier la tendance plate et à passer en temps voulu de la stratégie de contre-tendance à la tendance, alors peut-être aurez-vous du succès.
 

Encore une fois sur l'acceptation exponentielle des tiques.

Supposons que nous ayons construit une séquence à laquelle les ticks sont acceptés à intervalles. Comment savons-nous que c'est la séquence la plus correcte, sortie de nulle part.

Comparons-la avec une autre séquence similaire ; elles n'ont aucun avantage l'une sur l'autre.

Nous avons donc plusieurs variantes parallèles d'évolution des citations. Tous sont égaux, aucun n'est préférable.

Il sera alors statistiquement correct de faire la moyenne des relevés de chacun d'entre eux.

Enfin, pas tous, mais une quantité statistiquement significative, par exemple 100.

La probabilité qu'au moins l'un d'entre eux ait un retard de 11 secondes (et c'est la longueur maximale du retard dans la méthode exponentielle d'acceptation des tics proposée par Alexander),

cela signifie qu'à chaque tic, nous devons attendre 11 secondes pour que la moyenne de cette lecture puisse être calculée.

Par conséquent, le processus est potentiellement incomplet jusqu'à ce que 11 secondes s'écoulent à partir de l'heure actuelle, et ainsi de suite à partir de chaque seconde.

La décision ne peut pas être prise sur la base des données actuelles, le calcul est incomplet et sera possible après 11 secondes, et les données qui arriveront après 1 seconde ne pourront être jugées qu'après 12 secondes.

Ainsi, nous sommes dans une période d'attente sans fin pour que le calcul soit terminé.

Ou, pour le dire autrement, nous travaillons avec les données de 11 secondes passées. C'est pour les tiques.

Si nous appliquons la même méthode aux minutes, nous serons en mesure de décider de la situation actuelle après 11 minutes.

Si c'est une horloge, nous décidons dans 11 heures.

J'espère que vous comprenez l'idée. Même le Mach a un retard d'une demi-période, et la méthode exponentielle n'a pas encore de moyenne ; elle implique déjà un retard.


Je vais répondre tout de suite que nous ne faisons pas de moyenne. Si nous ne faisons pas la moyenne des relevés, nous travaillons alors avec une seule variante de l'espace multivarié, et ce n'est pas le fait que cette répartition particulière soit la meilleure. Nous avons un signal dans cet espace et aucun signal dans l'autre. Et quel est le meilleur signal ?

En I&C, il existe des concepts de confiance dans les lectures, les mesures sont effectuées avec trois capteurs, deux lectures (ou plus) sur trois sont considérées comme correctes, si les trois montrent des valeurs différentes, alors tous les capteurs sont vérifiés (une telle lecture ne peut être fiable).

 
Nikolay Demko:

Nikolaï, certains connaisseurs disent ici que cette méthode est absurde et qu'elle est connue depuis 100 ans. Savez-vous s'il s'agit d'un indicateur ou d'un conseiller ?

Quant à l'heure, c'est une question de principe, et je ne me lasserai jamais de le répéter.

À mon avis, travailler avec des ticks sans discernement est la pire erreur dans l'analyse des séries temporelles. La notion de temps elle-même est perdue ; pour une même quantité de tics à différents stades, vous avez un temps différent et vice versa. C'est un pur non-sens et, par conséquent, l'appauvrissement et la honte de l'individu.

Cela nous laisse deux possibilités :

1. Lire des données à intervalles de temps égaux, et prendre la valeur d'une arrivée garantie du devis comme un temps discret.

2. Dans les intervalles exponentiels - lire sur la réduction d'un processus non-markovien à un processus markovien. C'est exactement l'astuce pour tout faire.

 
Nikolay Demko:

Encore une fois sur l'acceptation exponentielle des tiques.

Supposons que nous ayons construit une séquence à laquelle les ticks sont acceptés à intervalles.

....

Il me semble qu'une nuance très intéressante manque dans toute cette histoire de tique.

Nous déclarons que l'un des principaux avantages de l'approche proposée, est l'acceptation des tics à intervalles exponentiellement croissants.

L'avantage de cette approche est clair pour tous : dans l'échantillon, les ticks les plus récents sont plus "denses" que ceux qui sont éloignés dans le temps.

Mais dans la pratique ?

Supposons que nous prenons les ticks 1, 3, 7, 15 ...... Nous avons calculé des statistiques et d'autres choses, en particulier, tracé les incréments avec le canal de la variance supposée.

Un nouveau tic arrive. Est-ce qu'on recalcule ? À chaque tic, devons-nous recalculer ? La tique qui était numéro 1 est devenue la tique numéro 2 et n'a pas été incluse dans l'échantillon. Il est tout à fait évident qu'un échantillonnage de ticks ABSOLUMENT nouveaux sera effectué, car les nombres de ticks dans deux exposants, qui diffèrent par un décalage d'un tick, seront différents, c'est-à-dire que tous les ticks sont nouveaux ! A quoi se réfère alors le chiffre présenté ? Il s'avère que les chiffres qui nous sont présentés existent exactement à un tic !


Est-il possible de vérifier une stratégie dans laquelle le calcul existe exactement un tick !

Oui, vous pouvez, mais l'auteur n'en dit pas un mot.

 
Alexander_K2:


2. À travers les écarts exponentiels - lisez comment réduire un processus non-markovien à un processus markovien. C'est exactement l'astuce par laquelle tout se fait.

J'ai posté ci-dessus des graphiques pour vos données, qui montrent qu'il existe une mémoire de près de 40 000 ticks !
Raison: