NS + indicateurs. Expérimentation. - page 4

 
Serait-il utile de donner un autre lien qui explique pourquoi la fermeture est plus difficile à prévoir - Interesting properties of High, Low
 
klot:
J'ai récemment expérimenté avec ZZ dans Neuroshelle Day Trader. J'ai introduit la différence normalisée entre le prix et plusieurs extrêmes ZZ fixes dans le PNN (classificateur). J'ai également essayé des ratios de différences (c'est-à-dire des modèles harmoniques si vous voulez). NS trouve des vérités sur un intervalle de temps limité. Je ne dirai pas que c'est un graal, mais le système fait des bénéfices sur des données qu'il n'a pas vues.


Et comment exactement avez-vous normalisé la différence ? La différence entre le prix et le dernier extremum ? Ou quelque chose d'autre ? Et quel classificateur avez-vous utilisé ? Les graphiques de Kohonen ?

Je ne suis pas encore arrivé à ZZ. Jusqu'à présent, j'ai expérimenté avec Kohonen, et normalisé les données par muving. En général, le potentiel est également visible, bien que faible. Je veux connecter les sorties du réseau à un "amplificateur" =)). En outre, j'ai essayé de classer les chandeliers - je les ai codés en utilisant différentes méthodes et les ai chargés dans la table de Kohonen. En principe, ce n'était pas mal non plus, au moins les fiches similaires ont les mêmes classes. Mais je n'ai toujours pas compris le principe de la normalisation. J'ai essayé de le convertir en plage 0+1, plage -1+1, sigmoïde et tangente. J'ai essayé d'utiliser les données "telles quelles". D'une manière ou d'une autre, je ne voyais pas l'avantage d'une méthode ou d'une autre.

 
Rosh, avez-vous une idée de la raison pour laquelle, pour un processus aléatoire, la valeur de H+L est prévisible (dans ce cas, persistante) ?
 
Je pense que c'est parce qu'il est beaucoup plus facile de prévoir la fourchette qui limite le prix que le prix de clôture lui-même. De plus, je pense qu'il faut déterminer la probabilité d'un mouvement ou d'un renversement de tendance en continuant à se baser sur la valeur absolue du prix lui-même et sur le moment où il va arriver.
 
Neutron:
Rosh, comprenez-vous pourquoi H+L est prévisible (dans ce cas, persistant) pour un processus aléatoire ?

Je pensais que c'était simple, H et L sont comme un intervalle de confiance pour une variable aléatoire, si peut-être le nombre et le bétail n'ont pas changé, alors cet intervalle de confiance restera en place (une constante). Et Close est une prédiction de la valeur de cette valeur éventuelle et elle se situe entre H et L, c'est pourquoi elle est plus difficile à prédire.
 

Je n'ai pas cette compréhension et ne l'ai toujours pas. Prival, je n'accepte pas votre hypothèse selon laquelle il s'agit d'une sorte d'intervalle (vous vous souvenez du pic de 200 points sur le câble, qui est fait par un tick?). Aucun neurone ne peut le prédire, mais Fibami, je pense, est assez probable...

P.S. Ce n'est pas clair non plus : pourquoi des épingles à cheveux aussi longues aiment-elles descendre uniquement ?

 
alexx:
klot:
J'ai récemment expérimenté avec ZZ dans Neuroshelle Day Trader. J'ai introduit une différence normalisée entre le prix et plusieurs extrêmes ZZ fixes dans le PNN (classificateur). J'ai également essayé des ratios de différences (c'est-à-dire des modèles harmoniques si vous voulez). NS trouve des vérités sur un intervalle de temps limité. Je ne dirai pas que c'est un graal, mais le système fait des bénéfices sur des données qu'il n'a pas vues.


Et comment exactement avez-vous normalisé la différence ? La différence entre le prix et le dernier extremum ? Ou quelque chose d'autre ? Et quel classificateur avez-vous utilisé ? Les graphiques de Kohonen ?

Je ne suis pas encore arrivé à ZZ. Jusqu'à présent, j'ai expérimenté avec Kohonen, et normalisé les données par muving. En général, le potentiel est également visible, bien que faible. Je veux connecter les sorties du réseau à un "amplificateur" =)). En outre, j'ai essayé de classer les chandeliers - je les ai codés en utilisant différentes méthodes et les ai chargés dans la table de Kohonen. En principe, ce n'était pas mal non plus, au moins les fiches similaires ont les mêmes classes. Mais je n'ai toujours pas compris le principe de la normalisation. J'ai essayé de le convertir en plage 0+1, plage -1+1, sigmoïde et tangente. J'ai essayé d'utiliser les données "telles quelles". D'une manière ou d'une autre, je ne voyais pas l'avantage de l'une ou l'autre méthode.


Je fais toutes mes expériences dans le NSDT. Je prends les différences entre le prix et le dernier extrema de ZZ. Et aussi entre le dernier et l'avant-dernier extremum, etc... Et aussi des relations entre les différences, - (X-A)/(A-B), (B-A)/(B-C), (B-C)/(C-D), (X-A)/(D-A), en essayant généralement de construire des modèles harmoniques de Gartley. J'ai tout mis dans un réseau de probabilité (il y a plusieurs variétés dans NSh). J'ai normalisé les valeurs en utilisant NSh, en fait cette formule

(x-ma(x,n))/(3*stdev(x,n)), dernièrement j'ai toujours utilisé cette formule. Et, en fait, allez-y pour l'apprentissage, la vérification croisée et OOS .

 

Voici un exemple de normalisation que j'utilise presque partout.

Vous pouvez substituer ce que vous voulez à Close...

Dossiers :
normalise.mq4  3 kb
 
Mathemat:

Je n'ai pas cette compréhension et ne l'ai toujours pas. Prival, je n'accepte pas votre hypothèse selon laquelle il s'agit d'une sorte d'intervalle (vous vous souvenez du pic de 200 points sur le câble, qui est fait par un tick?). Aucun réseau neuronal ne peut le prédire, mais Fibami ..... Je pense que c'est tout à fait possible...

P.S. Autre chose que je ne comprends pas : pourquoi les crampons les plus longs n'aiment-ils que descendre ?


Je vais essayer d'expliquer plus en détail. H et L ne sont rien d'autre qu'un intervalle de confiance. La valeur sl. n'a pas dépassé ces limites pendant une journée par exemple. 1 barre quotidienne. Supposons maintenant que cette valeur aléatoire suive une loi de distribution. H et L sont approximativement mozh+-3sko, c'est-à-dire qu'avec une probabilité de 0,997 la valeur aléatoire se situe dans ces limites. Il est plus facile de prévoir H et L dans cette situation, car il s'agit presque d'une constante, tandis que la valeur de la pente (Close) reste la même.

Il suffit de tracer (vous pouvez générer) la fonction de densité de probabilité de la valeur et de la marquer comme positive+3co. Générer 1000 valeurs et par elle (échantillon) déterminer ces points, ils sont presque constants, mais le dernier numéro dans la génération de hasard (Fermer). Vous pouvez le faire 100 fois et vérifier.

Pour les goujons, la méthode suivante vous aidera peut-être : vous prenez 10 mesures (ticks) et calculez un pont. Les deux plus extrêmes, qui se situent dans la fourchette + et -, sont éliminés. Et ensuite vous pouvez utiliser cette fonction à nouveau. Cette estimation de la quantité inconnue est plus précise, car elle possède des propriétés de stabilité vis-à-vis de telles anomalies aberrantes (erreur de mesure apparente).

 

Dans le sujet Propriétés intéressantes de High, Low, nous parlons de la prédiction "anormale" de la série (H+L)/2. Le paradoxe est imaginaire !

Si la condition est que H-L (première approximation de la volatilité de l'instrument) est bien inférieure à (H+L)/2 (première approximation du prix absolu de l'instrument), alors (H+L)/2 est équivalent à la procédure de calcul de la moyenne de BP avec une fenêtre coulissante égale à 2. En y réfléchissant, c'est vraiment presque une moyenne. D'autre part, une moyenne mobile a TOUJOURS un coefficient d'autocorrélation (CAC) positif entre les incréments de séries adjacentes (cela peut être prouvé directement). Ainsi, pour une BP obtenue par intégration de gradients aléatoires et ayant par conséquent un OAC de gradients tendant vers zéro, l'OAC tracé pour sa série (H+L)/2 sera toujours non nul et positif ! Malheureusement, ce fait ne permettra pas de prévoir la TA, puisque pour la série (H+L)/2 il y aura invariablement un retard de phase, qui remettra tout à sa place.

Comme ça.