Statistiques d'un système anti-grille - page 5

 
zzuegg:
arr, nous quittons le sujet :( revenez-y

Eh bien lol, désolé de le signaler, mais je pense que ce sujet aussi est dans une impasse. Je suppose que votre question initiale "les résultats sont-ils utiles pour un système de type anti-grid et quels sont les facteurs clés de tels systèmes ?" a trouvé une réponse dans les drawdowns. Si vous cherchez à évaluer le système pour des choses comme le pari optimal/kelly, désolé, je ne sais pas comment les calculer lorsque la taille des lots est variable et sur une chaîne de trades dépendants. Cependant, si vous cherchez des réponses à la question de savoir comment ce système se situe par rapport à d'autres systèmes gagnants (de tendance ou autres), alors c'est la voie qu'il emprunte actuellement.

Puisque vous avez toutes les données de gains et de pertes par transaction. Je pense que la balle est dans votre camp pour fournir des choses comme la variance et l'écart type qui pourraient être utilisés dans d'autres calculs statistiques comme le rendement, le taux, le risque, etc. Une dernière question : avez-vous essayé d'exécuter ce système sur toutes les données de prix dont vous disposez (y compris les autres devises) ? Si vous l'avez fait, le système s'est-il jamais planté ? En fait, la question n'est pas de savoir si un tel système peut se planter, mais plutôt à quelle fréquence.

 

zzuegg:

> Ce sont les zones de danger. Elles sont plus grandes que la taille de la grille mais pas deux fois plus grandes.

Comment ça se passe depuis le 25 juillet ?

-BB-

 

Je m'excuse auprès de zzuegg pour avoir apparemment fait dévier ce fil de discussion hier. Cependant, le point principal de mon post était de montrer que la performance statistique du système anti-grid était supérieure à celle des simples systèmes de suivi de tendance, j'ai donc été surpris d'être au bout de l'attaque vigoureuse (bien que quelque peu hors cible) d'ubzen.

@ubzen, à première vue, votre fil de discussion sur votre méthode de suivi de tendance semble intéressant. Je m'assurerai de le consulter. Je suppose que le fait que vous ayez également posté des liens vers le site Web où j'ai obtenu le logiciel que j'ai utilisé pour effectuer l'analyse dans mon message signifie que vous revenez sur vos conseils catégoriques antérieurs contre l'optimisation.

Vous soulevez la question intéressante de la fréquence de la réoptimisation. J'en suis arrivé à la conclusion logique que dans le trading en direct, il n'y a pas de mal à réoptimiser très fréquemment (avec une méthode qui a une bonne performance de marche avant), mais je ne me suis pas encore convaincu empiriquement que cela entraîne une grande amélioration. Ce qui est beaucoup plus important, c'est la durée de la période d'optimisation - il est facile de la rendre trop courte. Mais en utilisant MetaTrader et l'analyseur de marche avant, il y a une raison importante pour laquelle les périodes de test courtes sont trompeuses pour les systèmes qui traitent peu fréquemment. En effet, toute transaction ouverte à la fin de la période est fermée de manière irréaliste à minuit. Je n'aime pas cette "fonctionnalité" - à mon avis, le testeur devrait laisser les transactions se dérouler jusqu'à ce que les règles les abandonnent, mais c'est ce avec quoi nous devons travailler. Cela fausse les résultats d'autant plus que le nombre de transactions dans la période de test est faible.

Oui, mes tests étaient vraiment aussi précis que l'utilisation de chaque coche (souligné parce que je l'ai déjà dit et que cela reste vrai). La raison est qu'il est parfaitement pratique d'exécuter des transactions à l'ouverture des barres, et en fait c'est exactement ce que mon code faisait. Toute la logique était basée sur les valeurs des indicateurs sur les barres avec un indice 1 ou plus. Par ailleurs, il s'agit d'un moyen pratique et populaire d'éviter la situation stupide consistant à attraper plusieurs signaux dans la même barre. Si vous voulez attraper des signaux aussi fréquemment, utilisez des barres plus petites ! Bon point sur les barres géantes occasionnelles de 15 minutes, mais elles ne sont pas une source d'inexactitude dans ce cas.

Je vous remercie de vos aimables paroles au sujet de la qualité des résultats de mes systèmes d'exemple, mais ce n'est pas assez bon pour mes objectifs, et c'est bien peu comparé aux systèmes de zzuegg, par exemple. Beaucoup d'améliorations sont nécessaires, j'ai donc beaucoup à apprendre ! J'ai toujours trouvé l'EURUSD plus facile à utiliser que les autres marchés, obtenant les meilleurs résultats en trading manuel et en trading basé sur des règles. Mais j'expérimente occasionnellement d'autres marchés et je continuerai à le faire. Une idée sur laquelle je travaille depuis quelques années consiste à analyser chaque paire d'un panier de 4 à 6 devises (6 à 15 paires) avant de choisir la paire à négocier.

N'arrêtez jamais d'apprendre !

 
@Elroch : Désolé, je n'avais pas l'intention d'agresser qui que ce soit. J'ai essayé de garder mes réponses courtes, alors peut-être que c'est ce qui est ressorti. J'ai moi-même beaucoup à apprendre sur mt4. Actuellement, j'apprends à programmer des paniers de devises. Je veux aussi vraiment faire des EA auto-optimisants et des EA de réseaux neuronaux, en espérant que je puisse me mettre en marche et les commencer. Il est assez facile de dire ce qui ne fonctionne pas ou ce qui a fonctionné. C'est beaucoup plus difficile de dire ce qui va marcher. On vit, on apprend, je suppose. Tout ce que je dis ici est mon opinion. Ce n'est pas parce que quelque chose n'a pas fonctionné pour moi que cela ne fonctionnera pas pour vous, c'est l'attitude que j'ai tendance à adopter. C'est pourquoi je me retrouve à réinventer la roue au lieu de suivre aveuglément les conseils des autres.
 
BarrowBoy:

zzuegg:

> Ce sont les zones de danger. Elles sont plus grandes que la taille de la grille mais pas deux fois plus grandes.

Comment cela s'est-il passé depuis le 25 juillet ?

-BB-

Bonjour BB, le système fonctionne comme prévu. Même si le marché était en mouvement, la taille du mouvement était d'environ 200 pips + quelque chose. Comme la taille de grille standard est de 50 pips, je n'ai aucun problème dans une telle phase. Il semble aussi que les périodes de rangements soient optimales pour ce système.

Il n'y a pratiquement pas eu de zone dangereuse pendant cette période. Voici un test de juillet à aujourd'hui :

Note : la grande baisse dans l'équilibre est due aux changements actuels dans la crétérie de sortie : J'ai changé la sortie d'une simple sortie à l'objectif de profit à 'sortie par trailing d'équité'.


@Elroch, les ré-optisations constantes semblent bien sûr très bonnes, surtout avec les systèmes de suivi de tendance. Le problème pour moi est que vous devez spécifier des limites lorsque les conditions du marché ont changé et qu'une réoptimisation est nécessaire. Vous pouvez bien sûr utiliser l'optimisation à la volée (un bon article est disponible dans la section mql5). Mais cela suppose aussi que les conditions du marché restent les mêmes pendant une période plus longue. Chaque changement a un coût. Plus vos optimisations sont ajustées, plus les changements dans les conditions du marché doivent être faibles pour un échec. Je pense que je ne vais pas dans ce sens, mon système AdaptiveStrenght par exemple n'a pas d'impulsions, pas de périodes définies pour ses indicateurs. J'ai programmé comme base un indicateur qui me montre la durée moyenne des cycles de hausse et de baisse. Les autres paramètres sont basés sur ces résultats. L'espoir était d'obtenir un système qui s'adapte automatiquement aux conditions actuelles du marché. Cela semble bien dans le testeur, mais comme dit. Jusqu'à présent, les résultats en direct ne sont pas bons du tout. (Mais je laisse l'EA fonctionner car les résultats à long terme comptent et il fonctionne sur un petit compte annexe).

@ubzen, oui, NeuroNets pourrait être CETTE chose. Comme mon diplôme était basé sur ce sujet, je crois vraiment que de tels systèmes peuvent s'adapter rapidement aux nouvelles conditions du marché. Je rêve d'un NeuroNet analysant les conditions du marché et choisissant, ou recyclant automatiquement un nouveau NeuroNet basé sur ces conditions spécifiques du marché. Pourtant, je suis loin d'avoir résolu ce problème. La programmation d'un seul réseau de pointe est une tâche énorme.


//z

 

@ubzen, c'est cool. C'est facile de se faire une fausse impression dans les discussions sur Internet. L'argumentation est un bon moyen de clarifier la compréhension, comme on le sait depuis la Grèce antique :-)

@zzuegg, beau travail ! Pensez-vous que votre nouvelle méthode de sortie offre des performances supérieures ?

Au passage, une optimisation très fréquente n'exige rien de plus du comportement du marché qu'une optimisation moins fréquente, mais cela ne vaut peut-être pas la peine de s'en préoccuper. Mon premier sentiment était que si les paramètres de mon système sont actuellement influencés par le comportement du marché sur une période passée d'une certaine durée, je veux que cette période soit aussi récente que possible. Cela peut être réalisé par des ré-optimisations très fréquentes. Par exemple, si vous ré-optimisez chaque semaine en utilisant 1 an de données, vous utilisez toujours des données très proches des plus récentes possibles, mais si vous ré-optimisez tous les 3 mois, vous utilisez parfois une période d'optimisation vieille de 3 mois. Cependant, je pense que la différence de performance sera probablement très faible pour plusieurs raisons. Premièrement, il y a un grand chevauchement entre l'année la plus récente et l'année qui se termine 3 mois plus tôt - en fait, les 3/4 des données sont les mêmes. Deuxièmement, l'optimisation est un processus très imprécis. Une grande partie de la différence entre les résultats d'une optimisation sur la dernière année et l'année se terminant 3 mois plus tôt est susceptible d'être due au hasard, plutôt qu'à une différence significative entre les caractéristiques du marché sur les deux périodes. Troisièmement, les attentes des caractéristiques du marché dont les changements pourraient être capturés par l'optimisation évoluent probablement lentement dans le temps. Quatrièmement, il y a le fait que les corrélations entre les caractéristiques par lesquelles notre optimisation est influencée et les caractéristiques des données hors échantillon sont assez faibles, ce qui dilue davantage l'effet sur les résultats. Enfin, les caractéristiques du marché dont nous essayons de saisir les changements n'expliqueront qu'une partie des résultats du système sur les données hors échantillon. La conséquence est que la différence de performance sera probablement très faible. Il serait bon de tester cela scientifiquement avec un exemple réel, en regardant les différences statistiques de performance, mais il faudrait un test assez important pour réduire la variation aléatoire des résultats, et un test très important pour identifier une petite amélioration due à une ré-optimisation très fréquente, IMO.

 

> Les réseaux neuronaux pourraient être cette chose

Je comprends l'enthousiasme suscité par les réseaux neuronaux, mais j'ai toujours pensé qu'étant donné que l'entraînement et le réentraînement proviennent de... données historiques, nous ne faisons que tourner dans la même vieille boucle, mais avec plus de cycles de CPU...

-BB-

 

la même vieille boucle mais avec plus de cycles CPU...

Ouais, je partage un peu le même sentiment mais en pensant à des taughts heureux :)

Eh bien, j'espère que le NN fait le processus de développement de mon système mieux que moi. J'entends par là le processus consistant à apprendre d'un chemin qui a échoué et à essayer une autre route.

 

Quelques réflexions. Les données historiques sont des données historiques, mais c'est à peu près tout ce que nous avons :-) Les NN sont un peu mystiques, mais ils sont en fait une sorte de machine à régression. Je veux dire par là qu'un NN peut coder une classe de fonctions entre ses entrées et ses sorties, et que le processus d'apprentissage consiste à déterminer les paramètres libres des fonctions pour les adapter à l'ensemble d'apprentissage.

La question des données historiques me rappelle l'un de mes dogmes commerciaux absurdes préférés : "les indicateurs sont en retard, mais pas le prix". Le prix actuel n'est pas décalé, c'est vrai, mais essayez de négocier en utilisant uniquement le prix actuel et en ignorant tous les autres (Nous sommes à 1,41665 - voulez-vous acheter ou vendre ? Aucune autre information disponible). Les prix précédents sont manifestement décalés. Sont-ils moins décalés que les indicateurs ? Supposons que vous ayez un ensemble de SMA d'une longueur de 1, 2, 3, et ainsi de suite. Les N premières d'entre elles déterminent les N derniers prix. Je pense que dans un sens réel, cela signifie que les SMA ne sont pas plus décalées que les prix. Quelqu'un qui souscrit à ce dogme populaire croira que lorsque vous parlez du support créé par un prix extrême qui s'est produit N barres en arrière, c'est un exemple de prix non retardé, mais que si vous parlez de la relation du prix à une SMA de N périodes, ce serait un indicateur retardé. Amusant.

 

Il est à 1.41665 - voulez-vous acheter ou vendre ?

Wow c'est très bien, je n'ai jamais enseigné ça comme ça avant. Mec, j'aime encore plus ce gars, il me fait réfléchir. Permettez-moi d'ajouter mon dogme à la liste. Le Rsi, Macd, CCi, Adx, Sma ou n'importe quel autre indicateur favori a bougé de 100 points dans le sens de la hausse, voulez-vous acheter ou vendre ?

Raison: