[Archives] Mathématiques pures, physique, chimie, etc. : problèmes d'entraînement cérébral sans rapport avec le commerce. - page 386

 

Oooh ! Merci beaucoup. Enfin quelque chose d'intelligible sur le sujet.

1. L'écart est le carré moyen de la distance parcourue par un processus en N étapes. N'oublions pas que le concept de l'écart a été introduit par Hearst, qui s'est penché sur la marée noire du Nil. Einstein, qui a considéré le mouvement brownien de la particule, a parlé du chemin qu'elle a parcouru depuis sa position de départ. Ce sont toutes des quantités physiques. Et je cherchais une définition - c'est-à-dire leur signification mathématique. Maintenant, la question est plus claire. L'envergure du Nil, la trajectoire de la particule de Broin, le gain maximum dans un jeu d'aigle sont tous le même concept tel que défini dans ce lien.

2 On y trouve également, littéralement en deux lignes, une formule (un cas particulier de la formule de Hurst pour le SB pur) dont il découle que pour le SB pur avec les mêmes incréments d'unité à chaque étape, le coefficient de la formule de Hurst = 1. C'est ce que j'ai affirmé et tenté d'illustrer sur mes doigts à Nikolaï dans son fil de discussion. Du point de vue physique, c'est clair : en fait, ce coefficient est nécessaire lorsque les valeurs ont une dimension.

3) Maintenant, la signification de S dans la formule R/S = c*(T^h) est également plus claire. Comme il est écrit partout, S est le RMS. Moi, à cause de ma stupidité, je n'ai pas pu comprendre le RMS de quelle série. Maintenant je comprends - la série d'incréments, mais pas le SB lui-même. Et le but est juste de normaliser les gradients par RMS, c'est-à-dire de réduire en quelque sorte les gradients à +/- 1.

4. Et à la fin, j'ai compris pourquoi le calcul de l'indice, que j'ai décrit dans ma branche, ne donnait pas la valeur 0.5 sur les séries du modèle sgénéré. Je l'ai calculé pour des intervalles de temps astronomique M1, M10, H1. Et une moyenne sur toutes les données. Mais chacun des intervalles astronomiques identiques avait son propre nombre de tics (c'est-à-dire d'étapes du processus). Faire la moyenne du nombre de ticks afin de l'adapter à la formule de Hurst est tout à fait contraire à la définition. Mais il s'avère maintenant que ce n'est pas tout. J'ai fait la moyenne de l'écart aussi. J'aurais dû faire la moyenne du carré de l'écart, puis en extraire la racine. Il y a donc eu deux erreurs.

Eh bien, ça a clarifié les choses. Je vais devoir le recalculer correctement. :-)

Et la question de la dérivation théorique de la formule pour une distribution SB donnée peut maintenant être plus substantielle.

 
Oui, étant donné que l'incrément de temps est un tick, pas une barre, et que +/- 1 est en cinq chiffres;)
 
Yurixx: 1. L'écart est le carré moyen de la distance parcourue par le processus en N étapes.

Oups. Si vous le saviez, vous n'auriez pas donné le lien :). Dans l'image de Feynman, tout est dessiné. Imaginez que ce sont des tics à l'intérieur d'une barre.

Prenons la trajectoire la plus haute, celle du point. Pour cela, Open = 0, Low = -2, High = 3, Close = 2. D pour elle est égal à 2, c'est-à-dire D = Close-Open. A propos de ce que je vous ai écrit dans votre sujet tout de suite (qu'Einstein a fait sa formule pour le Close-Open). Et pour Close-Open, le coefficient de votre approche sera réellement égal à 1. Mais vous prenez High-Low, et c'est égal à 5 dans ce cas. Cela signifie qu'il n'est pas égal à D et donc que le coefficient ne sera pas égal à 1. Je vois que vous voulez à tout prix substituer l'écart final à l'écart de mesure. Mais alors, ayez la gentillesse de trouver un terme pour High-Low afin que je puisse vous dire avec vos propres mots que pour cette quantité, le coefficient ne sera pas égal à un et que la pente du rayon depuis l'origine ne sera pas de Hurst.

 
Candid:

Oups. Si vous le saviez, vous n'auriez pas donné le lien :). Feynman a une image de tout, imaginez que ce sont des tics à l'intérieur d'une barre.

Prenez la trajectoire la plus haute, celle du point. Pour cela, Open = 0, Low = -2, High = 3, Close = 2. D pour elle est égal à 2, c'est-à-dire D = Close-Open. A propos de ce que j'ai immédiatement écrit dans votre sujet (qu'Einstein a fait sa formule pour le Close-Open). Et pour Close-Open, le coefficient de votre approche sera réellement égal à 1. Mais vous prenez High-Low, et c'est égal à 5 dans ce cas. C'est-à-dire qu'il n'est pas au début de D et pour cette raison, le coefficient ne sera pas égal à 1. Je vois que vous voulez à tout prix substituer l'écart final à l'écart de mesure. Mais alors, ayez la gentillesse de trouver un terme pour High-Low afin que je puisse vous dire avec vos propres mots que pour cette valeur, le coefficient ne sera pas égal à un et que la pente du faisceau à partir de l'origine ne sera pas de Hurst.

Vous avez migré ici depuis les volumes de tiques, n'est-ce pas...

C'est là que vous auriez pratiqué.

:)

Albert lui-même suggère que la plausibilité de l'HL d'une barre devrait être estimée à partir du nombre de tics qu'elle contient !

;)

 

Nikolaï, je t'ai aussi écrit que je pense que le truc Close-Open est faux. Et le fait que vous ayez assimilé cette différence à D est encore plus faux. Comprendre la définition de "la voie empruntée par le processus" car cette simple différence contredit la formulation du problème en général. Alors il n'y a pas de raison de la mettre au carré. Tu fais la moyenne, tu obtiens zéro et tu es heureux.

Pensez-y en termes de diffusion. Là, c'est le phénomène lui-même qui produit la moyenne - un nombre énorme de particules (molécules) réparties par le mouvement brownien. Le chemin que le processus a emprunté est la frontière de diffusion. La particule qui l'a atteint à cet instant et celle qui l'a atteint et est déjà retournée au point de départ ne jouent aucun rôle.

En général, je vais recalculer à nouveau, puis il sera possible de parler plus raisonnablement.

 
Yurixx:

Alexei, je connais la distribution de la série. Je veux connaître l'écart entre les extrêmes. C'est ce que tu as dit. Comment ?


La probabilité d'atteindre les extrêmes est en quelque sorte théorisée comme un problème de SB avec un écran d'absorption. C'est-à-dire qu'en t a est un écran, une fois atteint la particule arrête de se déplacer et nous devons trouver la probabilité qu'au temps t elle l'atteigne /go?link=https://dic.academic.ru/dic.nsf/enc_mathematics/414/%25D0%2591%25D0%2595%25D0%25A0%25D0%259D%25D0%25A3%25D0%259B%25D0%259B%25D0%2598.

P.S. Et la formule d'Einstein concerne en réalité la déviation moyenne d'une particule à travers le temps T, c'est-à-dire l'analogue de |Close-Open|.

 
Yurixx:

Pensez-y en termes de diffusion. Là, le phénomène lui-même produit une moyenne - un nombre énorme de particules (molécules) réparties par le mouvement brownien. Le chemin que le processus a emprunté est la frontière de diffusion. La particule qui l'a atteint à ce moment-là et celle qui l'a atteint et est déjà retournée au point de départ ne jouent aucun rôle.

Encore une fois, la cannelure...

Si c'est à propos des limites. Et le delta du Nil est également bien approximé.

:)

 
Avals:


la probabilité d'atteindre les extrêmes semble être théorisée comme un problème de SB avec un écran absorbant. C'est-à-dire qu'en t a est un écran, sur lequel la particule arrête de se déplacer et on doit trouver la probabilité qu'au temps t elle l'atteigne /go?link=https://dic.academic.ru/dic.nsf/enc_mathematics/414/%25D0%2591%25D0%2595%25D0%25A0%25D0%259D%25D0%25A3%25D0%259B%25D0%259B%25D0%2598.

P.S. Et la formule d'Einstein concerne en réalité la déviation moyenne d'une particule au cours du temps T, c'est-à-dire qu'elle est analogue à |Close-Open|.

Un panneau Galton avec des pièges à bitume sur les côtés ?

de quelle rangée ?

Je vois...

;)

 
Candid:

Aucune substitution jusqu'à présent.

Laissez-moi vous rappeler la logique du raisonnement. On trouve un certain indicateur qui est censé caractériser d'une certaine manière le degré d'aléa du marché en ce moment. Nous devons trouver quelles valeurs de cet indicateur correspondront à la tendance du marché, lesquelles seront plates et lesquelles seront imprévisibles.

Je vois.

Candidat:

En physique, cela s'appelle le calibrage. Nous sommes censés être capables de calibrer sur des séries générées artificiellement avec des propriétés données.

Je pense, par exemple, qu'il est plus rapide et, dans un certain sens, plus fiable de générer des séries nécessaires et d'étudier le comportement de la caractéristique sur celles-ci. Et vous devriez commencer par des séries découpées à partir de parties appropriées de séries de prix réels.

J'ai suggéré une fois de générer des rangées avec les caractéristiques nécessaires, et sur celles-ci d'étudier la capacité de survie des CT, y compris le comportement des NN. Certains membres du forum étaient contre cette approche, mais il n'y avait pas d'arguments spécifiques contre elle. Certains étaient d'accord avec moi.

Mais au fil du temps, je suis de plus en plus convaincu que cette approche était erronée.

Candidat:

Eh bien, nous (en tout cas, moi) faisons de notre mieux pour l'aider dans cette tâche difficile.

J'essaie aussi, du mieux que je peux. Peut-être pas avec des formules, mais avec des idées et des considérations.

Permettez-moi d'essayer de faire une analogie.

Les écrivains. Blok, Pushkin, Tolstoy, Lem, Shackley. Chacun d'entre eux est unique et le lecteur peut facilement identifier non seulement le genre de l'œuvre, mais aussi l'auteur (il s'agit d'une sorte d'indicateur, de paramètre, propre à chaque auteur). Cependant, statistiquement, tout texte suffisamment grand contient un nombre constant de chacune des lettres de l'alphabet. Il s'agit d'une caractéristique statistique de la langue dans laquelle l'œuvre est écrite. Si l'on génère des lettres au hasard, mais avec des caractéristiques statistiques prédéfinies, on peut obtenir un texte contenant la bonne quantité d'informations. Mais ce texte n'aurait aucun sens, et encore plus impossible (parce qu'il n'est pas là) d'identifier l'auteur de l'"œuvre".

Et les efforts de Yurixx visent précisément à trouver cet indicateur qui permet d'identifier sans ambiguïté l'auteur de l'œuvre à partir des indicateurs statistiques du texte.


J'ai eu cette idée : collecter des statistiques sur plusieurs années pour trois mois - octobre, novembre et décembre - afin de générer des séries ayant les mêmes caractéristiques statistiques, en tenant compte de la dynamique de changement des caractéristiques selon les années, et optimiser Expert Advisor sur cette série générée, qui exposerait ensuite Expert Advisor sur championship.....

Mais pour l'instant, j'aime plutôt l'idée de rassembler les histoires de ces trois mois, de les normaliser par une volatilité, de coller ces morceaux dans une série et d'aller de l'avant.

Les inconvénients de ces deux approches sont évidents. Mais la seconde est encore plus prometteuse.

 
Yurixx:

Nikolaï, je t'ai aussi écrit que je pense que le truc Close-Open est faux. Et le fait que vous ayez assimilé cette différence à D est encore plus faux. Comprendre la définition de "la voie empruntée par le processus" car cette simple différence contredit la formulation du problème en général. Alors il n'y a pas de raison de la mettre au carré. Tu fais la moyenne, tu obtiens zéro et tu es heureux.

OK, c'est ma dernière remarque sur ce point. Si vous n'êtes pas d'accord, faites ce que vous voulez, je me tairai :)

Je ne l'ai pas mis en équation, Feynman l'a fait. J'ai tout lié à sa photo. Feynman a écrit : "Nous devrions nous attendre à ce qu'il n'y ait pas de progression moyenne du tout, puisque nous avons autant de chances d'avancer que de reculer. Toutefois, on estime qu'avec l'augmentation de N, nous sommes de plus en plus susceptibles de nous égarer quelque part, de plus en plus loin du point de départ. Une question se pose donc : quelle est la distance absolue moyenne, c'est-à-dire quelle est la valeur moyenne de |D| ? Cependant, il est plus pratique de traiter non pas avec |D| mais avec D2; " Avez-vous un texte différent à mon lien ?

Et pensez aussi à la raison pour laquelle Hearst a pensé à normaliser en RMS, mais n'a pas pensé à compter le degré par le rayon à partir de l'origine. Il l'a fait, par régression. C'était un idiot, c'est ce que vous dites ?

Raison: