Phénomènes de marché - page 33

 
joo:
Non pas que ce soit mal. C'est vrai, aussi vrai que l'expression "acheter bon marché, vendre cher". Ce n'est pas seulement l'exactitude qui compte, mais aussi la formalisabilité. Il ne sert à rien d'élaborer des constructions philosophiques intelligentes proches du marché si elles (les constructions) sont comme le lait d'une chèvre.
Pensez-vous qu'il soit difficile de formaliser un décalage dans le temps après avoir subi une perte ? Ou quelque chose d'autre ?
 
paukas:
Pensez-vous que le délai après l'acceptation d'une perte est difficile à formaliser ? Ou qu'est-ce qui est différent ?
Oui, vous pouvez, bien sûr, sans problème. Vous pouvez également interdire les transactions lorsque la volatilité est faible.
 
gpwr:

Merci. Je vais réfléchir à SOM à mon aise.

L'article en lien donne un aperçu des méthodes de segmentation des séries temporelles. Ils font tous à peu près la même chose. Non pas que SOM soit la meilleure méthode pour le forex, mais ce n'est pas non plus la pire, c'est un fait ;))

http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.115.6594&rep=rep1&type=pdf

 

Mes collègues, malheureusement, ne me permettent pas de consacrer plus de temps au commerce, mais j'ai trouvé un peu de temps et j'ai décidé de demander (pour mon propre intérêt, pour ne pas l'oublier :o, donc je reviendrai plus tard, quand j'aurai plus de temps libre)

L'essence du phénomène.

Permettez-moi de vous rappeler l'essence de ce phénomène. Il a été découvert lors de l'analyse de l'influence des "longues queues" sur la déviation des prix futurs. Si nous classons les longues queues et examinons les séries chronologiques sans elles, nous pouvons observer certains phénomènes curieux, uniques pour presque chaque symbole. L'essence du phénomène est une classification très spécifique, basée en quelque sorte sur une approche "neuronale". En fait, cette classification "décompose" les données brutes, c'est-à-dire le processus de cotation lui-même, en deux sous-processus, qui sont conventionnellement appelés"alpha" et"betta". D'une manière générale, le processus initial peut être décomposé en un plus grand nombre de sous-processus.

Système à structure aléatoire

Ce phénomène s'applique très bien aux systèmes à structure aléatoire. Le modèle lui-même aura l'air très simple. Prenons un exemple. La série initiale EURUSD M15(nous avons besoin d'un échantillon long, et d'un cadre aussi petit que possible), à partir d'un certain "maintenant" :

Étape 1 : Classification

Une classification est effectuée et deux processus"alpha" et"beta" sont obtenus. Les paramètres du processus principal sont définis (le processus qui traite de l'"assemblage" final du devis).

Étape 2 Identification

Pour chaque sous-processus, un modèle basé sur le réseau de Volterry est défini :

Oh, quel malheur de les identifier.

Étape 3 Prédiction des sous-processus

Une prévision est faite pour 100 comptages pour chaque processus (pendant 15 minutes, soit un peu plus d'une journée).

Étape 4 : Modélisation de la simulation

Un modèle de simulation est construit, qui générera le nombre x.o. d'implémentations futures. Le schéma du système est simple :


Trois randomisations : une erreur pour chaque modèle et les conditions de transition du processus. Voici les réalisations elles-mêmes (à partir de zéro) :

Étape 5 : La solution commerciale.

Une analyse de biais de ces réalisations est effectuée. Cela peut se faire de différentes manières. Visuellement, nous pouvons voir qu'une grande masse de trajectoires sont décalées. Regardons les faits :

<>

Essais préliminaires

J'ai pris environ 70 "mesures" au hasard (il faut beaucoup de temps pour compter). Environ 70% des déviations détectées par le système sont correctes, il n'a donc encore rien dit, mais j'espère revenir sur cette piste dans quelques mois, bien que je n'aie pas encore fini de travailler sur le projet principal :o(.

 
Ce n'est peut-être pas tout à fait exact : quel principe est utilisé pour classer et décomposer réellement en quels processus est prévu ?
 

à sayfuji

Может не совсем корректно: по какому принципу производится классификация и, собственно, разложение на какие процессы предполагается?

Non, tout est correct. C'était l'un des sujets de discussion sur plusieurs dizaines de pages de ce fil. J'ai écrit tout ce que j'ai jugé nécessaire. Malheureusement, je n'ai pas le temps de développer davantage le sujet. En outre, ce phénomène en particulier, bien qu'intéressant, n'est pas très prometteur. Le phénomène des "longues queues" apparaît sur des horizons longs, c'est-à-dire là où il y a de grandes déviations de trajectoires, mais pour cela il faut prévoir au loin les processus alpha et betta (et d'autres processus). Et c'est impossible. Il n'y a pas de telle technologie...

:о(

à tous

Chers collègues, il s'avère qu'il y a des messages auxquels je n'ai pas répondu. Pardonnez-moi, il est inutile d'essayer de bouger maintenant.

 

Prohwessor Fransfort, veuillez répondre à la question de savoir quel programme vous utilisez pour vos recherches.

Et aussi...si quelqu'un a un manuel en russe ou un russifier pour le programme http://originlab.com/ (OriginPro 8.5.1)

 
Matlab l'est, si je ne me trompe pas.
 
Farnsworth:
Nous espérons arriver à des mathématiques "fractales" plus sérieuses dans l'étude des "queues de pie". Cela prendra un peu plus de temps, mais pour l'instant, je publie une étude quasi-scientifique qui m'a donné quelques idées.
Hypothèses du modèle.
Il y a des raisons de supposer qu'il y a plusieurs processus assis dans les lits, ce qui est ce que je veux trouver. Le "processus porteur" principal est censé être une sorte de tendance croissante/décroissante qui, par une sorte d'algorithme stochastique, interrompt un autre processus (ou plusieurs processus). L'idée est simple pour commencer : retirez les incréments qui appartiennent théoriquement aux "queues grasses" (ou à un autre sous-processus) et voyez ce qui se passe. La première façon, la plus simple, de classer est de "filtrer" tout ce qui se trouve à l'intérieur de +/- LAMBDA.
Open(n)-Open(n-1) incréments, M15, EURUSD :
De 0.0001 en incréments de 0.0001 à 0.025, je passe en revue les LAMBDA, je ne laisse que les incréments qui tombent dans un canal +/- LAMBDA particulier, j'additionne et je détermine le coefficient de détermination de la régression linéaire pour chaque LAMBDA. Oui, il est clair qu'il y aura des omissions (je les compte comme des zéros), mais maintenant je veux juste examiner le processus lui-même.
Coefficient de détermination (CD)/ LAMBDA
Je vous rappelle que CoD, tout simplement, est un certain pourcentage qui montre dans quelle mesure les données expliquent le modèle. Le maximum (0.97) est atteint lorsque LAMBDA = 0.0006
Les incréments filtrés peuvent être additionnés pour donner deux processus :
La valeur de 0,0006 est légèrement inférieure à la RMS du processus incrémental. Pour comparaison, nous pouvons regarder le second extremum local, avec une valeur LAMBDA de 0.0023 (environ 3 RMS) :
De telles "tendances" peuvent être identifiées sur tous les quotients, et certaines (et la plupart d'entre elles) sont à la hausse et d'autres à la baisse. Il est clair que cette méthode est quasi-scientifique, mais d'un autre côté, elle a donné quelques idées, une représentation alternative des systèmes avec une structure aléatoire.

Un résultat intéressant.

Ce phénomène pourrait-il être dû au fait que les données historiques sont des prix Bid ? (Lambda dans l'expérience est comparable à l'écart).

Ne pensez-vous pas qu'il est plus logique de tester la qualité du processus de "tendance" résultant en utilisant une régression linéaire avec des coefficients constants par morceaux lorsqu'ils sont considérés comme des fonctions du temps ?

 
Prof, votre graphique de la page 22, figure 2, est très similaire au graphique mensuel de l'euro-dollar - très similaire.

Vous pouvez additionner les incréments filtrés et vous obtenez deux processus :



Raison: