Notre Masha ! - page 4

 
Prival >> :

Le parfait MA le fait en quelque sorte. Dialogue de l'auteur. Alexander Smirnov.

voir le message ANG3110 06.02.2008 20:48

C'est parfait s'il redessine ?

 
Neutron >> :

nous maximisons le profit "sans connaître" l'historique, en analysant uniquement la dernière lecture de la cotation et sa seule valeur précédente X[i]-X[i-1] et c'est tout. C'est comme ça.

C'est-à-dire que vous créez le système le plus rentable possible. Et la méthode que vous développez utilise toutes les régularités qui peuvent être tracées sur l'historique dont vous disposez.

>> Audacieux !

 
TheXpert писал(а) >>

Il est parfait s'il est à découvert ?

On prend une histoire, on construit un MA parfait dessus. C'est ce à quoi il faut aspirer. Et nous cherchons celui qui ne sera pas à découvert et qui a un écart minimum par rapport à cette courbe. C'est comme ça

 
Je continue à vouloir aller à Bulashov. La formule pour le mashup parfait était à peu près la même là-bas. Mais ça a fini par être un DEMA
 
mql4com писал(а) >>

En d'autres termes, vous créez le système le plus rentable possible. Et la méthode que vous développez utilise toutes les régularités que l'on peut retrouver dans l'histoire dont vous disposez.

Audacieux !

Eh bien, eh bien, eh bien. Est-ce que je ressemble au patient numéro six ?

Évidemment, si vous utilisez cette méthode ou toute autre pour prédire la dynamique d'une variable aléatoire intégrée (exactement aléatoire, pas quasi-aléatoire), vous obtiendrez zéro ! Par définition, vous ne pouvez pas battre un processus aléatoire, c'est une loi de la nature. D'autre part, les séries temporelles (TR), comme les séries de prix, ne sont pas complètement aléatoires, il existe des régularités explicites et implicites, dont l'exploitation permet d'obtenir des revenus statistiques sur le marché du Forex. Nous avons donc besoin de méthodes et d'outils pour détecter ces modèles faibles. L'une de ces méthodes est l'application des moyennes mobiles aux cotations. Cette méthode a un domaine d'application bien défini, où son exploitation est justifiée et mathématiquement correcte. Par essence, toutes les moyennes mobiles sont une forme d'intégration de la BP initiale. Au sens le plus général, l'intégration est la prédiction de l'avenir par les tendances, tandis que la différenciation est la détermination des tendances du processus. Mais quelles tendances exactement ? Si nous regardons de près le faisceau de

La prédiction BP-MA, il n'est pas difficile de déterminer la condition d'applicabilité de la méthode MA, comme un coefficient de corrélation positif entre les lectures voisines dans la série de la première différence de BP. C'est dans ce cas, les MAs donneront des stratégies rentables et notre MA donnera le meilleur profit de tous les possibles ! C'est pour cela que nous nous battons.

Cependant, si nous analysons les prix des BP pour vérifier leur conformité avec l'exigence ci-dessus, le résultat de l'analyse sera plutôt négatif. En réalité, la réalité est que les séries de prix sur tous les TFs ont généralement un petit coefficient d'autocorrélation négatif dans la série de la première différence et seulement parfois, sur les tendances, ce coefficient est positif.

L'applicabilité de la méthode proposée et son efficacité ne peuvent être estimées que par les résultats de l'expérience.

Vinin a écrit >>.
Je continue à vouloir aller à Bulashov. La formule pour la purée parfaite était à peu près la même là-bas. Mais ça a fini par être un DEMA.
Pas DEMA, mais MEMA et sa fonctionnelle n'avaient pas un terme responsable de la maximisation de la rentabilité du TC, mais avaient un terme minimisant la dérivée seconde. Cela a permis de construire un MA très lisse et c'est tout. Et voici l'article de Bulashov :
Dossiers :
mema_3.zip  279 kb
 
Neutron >> :


Au lieu de Mashek, j'utilise l'interpolation par des polynômes de puissance en utilisant la méthode NK
sur une fenêtre. Il est clair que l'extrapolation de la courbure d'interpolation
même dans un petit voisinage futur est presque insignifiante, mais pour décrire l'actuelle
à l'endroit le plus intéressant - au bord droit de la BP, il nous permet de décrire l'état actuel.
En faisant varier la taille de la fenêtre et le degré de courbure, il est possible de
d'autre part, il est possible d'avoir une vision plus générale ou détaillée de ce qui se passe, en mettant l'accent sur le processus actuel et ses phases.
et ses phases.


A mon avis, la seule façon de prédire l'avenir de BP est d'analyser
l'évolution des processus - par exemple, il y avait un fort processus descendant, dans l'état actuel
il a été remplacé par un processus latéral -> un autre processus de croissance est possible.


Cette approche, à mon avis, est particulièrement utile pour les réseauteurs, car les NS peuvent
alimentez quelques caractéristiques typiques d'une courbe d'interpolation,
par exemple la composante de la tendance (direction et ampleur), l'écart par rapport à la
composante de tendance, une forme de courbe formalisée, etc. - en général, dans la mesure où
de votre imagination - en apprenant au réseau à identifier le courant et à prédire
prédire les processus futurs et élaborer une stratégie commerciale sur cette base.


Il est également possible de lisser le passé lointain et le passé proche de différentes manières - quelque chose comme
similaire à l'EMA. Il est également possible de mettre en œuvre une approche synthétique
- d'utiliser une moyenne mobile très fortement lissée avec une longue
retard, et le passé proche, où le muving ne fonctionne pas encore,
l'analyser en utilisant la courbe d'interpolation.

 
Aleku >> :

Une telle approche, à mon avis, est particulièrement utile pour les réseaux, car les NS peuvent
pour alimenter quelques caractéristiques typiques d'une courbe d'interpolation,
par exemple, composante de la tendance (direction et ampleur), écart par rapport à
composante de tendance, une forme de courbe formalisée, etc. - en général, dans la mesure où
de votre imagination - en apprenant au réseau à identifier le courant et à prédire
prédire les processus futurs et élaborer une stratégie commerciale sur cette base.

À mon avis, ce type de prétraitement des données d'entrée pour les NS est une sorte de béquille. En intégrant la BP initiale avec des muves, nous nous rendons tout d'abord compte de la tarification (courbe lisse, tendances visibles), alors que le processus de lissage lui-même n'apporte aucune information supplémentaire aux données d'entrée (elle n'est pas disponible) et, par conséquent, ne facilite pas le travail des SN. De ce point de vue, des données spécialement disséquées doivent être introduites à l'entrée du SN, ce qui concentre au maximum l'attention du réseau sur le processus quasi-stationnaire. Un candidat pour un tel processus peut être un coefficient de corrélation négatif dans le PDF, il ne peut d'ailleurs pas être isolé par intégration de kotir (lissage). D'autres méthodes et approches sont ici nécessaires. Cela semble prometteur.


Vous pouvez également lisser le passé proche et lointain de différentes manières - quelque chose
similaire à l'EMA. Il est également possible de mettre en œuvre une approche synthétique
- d'utiliser une moyenne mobile très fortement lissée avec une longue
retard, et le passé proche, où le muving ne fonctionne pas encore,
analyser par une courbe d'interpolation.


Tout cela est compliqué et demande une bonne justification, mais c'est presque certainement une perte d'efforts et de temps.

 
Neutron писал(а) >>

... Les séries de prix sur toutes les TF ont tendance à avoir un petit coefficient d'autocorrélation négatif dans les séries en différence première et seulement parfois, sur les tendances, ce coefficient est positif.

Comment avez-vous calculé le coefficient d'autocorrélation ? Je connais la " fonction d'autocorrélation". Mais il s'agit d'une fonction, pas d'un nombre.
 

Supposons qu'il existe un échantillon de la BP originale, par exemple sur M1. Nous construisons une série de la première différence d1[i]=Open[i]-Open[i-1], puis le coefficient de corrélation pour TF=1m entre les échantillons voisins est calculé comme suit : f1=SUM(d1[i]*d1[i-1])/SUM(d1[i]^2), où l'index parcourt toutes les valeurs de BP. Pour TF=2m nous faisons de même, en construisant d'abord BP pour 2m et en trouvant sa première différence d2[i] et ainsi de suite jusqu'au TF désiré. Je me suis limité à TF=1500 minutes (environ 24 heures). La question peut se poser de savoir comment construire un autre TF à partir des minutes, par exemple pour M2, mais tout semble être transparent ici. C'est cette donnée (valeur du coefficient de corrélation en RPM pour différentes TF) que j'ai tracée dans le post précédent.

 
Neutron писал(а) >>

Supposons qu'il existe un échantillon de la BP originale, par exemple sur M1. Nous construisons une série de la première différence d1[i]=Open[i]-Open[i-1], puis le coefficient de corrélation pour TF=1m entre les échantillons voisins est calculé comme suit : f1=SUM(d1[i]*d1[i-1])/SUM(d1[i]^2), où l'index parcourt toutes les valeurs de BP. Pour TF=2m nous faisons de même, en construisant d'abord BP pour 2m et en trouvant sa première différence d2[i] et ainsi de suite jusqu'au TF désiré. Je me suis limité à TF=1500 minutes (environ 24 heures). La question peut se poser de savoir comment construire un autre TF à partir des minutes, par exemple pour M2, mais tout semble être transparent ici. C'est exactement cette donnée (valeur du coefficient de corrélation en RPM pour différentes TFs) que j'ai montré dans le post précédent sur le graphique.

Encore mieux) Quelles sont ces formules et où les trouvez-vous ?

вот посмотрите как расчитывается коэффициент кореляции https://ru.wikipedia.org/wiki/%D0%9A%D0%BE%D1%8D%D1%84%D1%84%D0%B8%D1%86%D0%B8%D0%B5%D0%BD%D1%82_%D0%BA%D0%BE%D1%80%D1%80%D0%B5%D0%BB%D1%8F%D1%86%D0%B8%D0%B8

Le coefficient de corrélation est calculé entre les tableaux, et non entre les comptages. Veuillez être précis dans votre formulation afin que les autres puissent comprendre ce que vous dites, affirmez et calculez.

Raison: