Système de non-adaptation - principales caractéristiques

 

Comme vous le savez, de nombreuses TS sont bien ajustées sur un échantillon représentatif et s'épuisent sur des tests avancés. Ces systèmes ne doivent pas être utilisés dans le commerce.


Aujourd'hui, j'ai analysé les différents TS que j'ai et voici ce que j'ai découvert :


Les signes d'un système qui fonctionne sont qu'il optimise de manière presque égale l'échantillonnage et le double échantillonnage avec un lot constant. Par exemple, nous prenons 10 000 barres. Nous le divisons approximativement par deux, c'est-à-dire par 5000 barres. Optimisez-le pour 5000 barres. Puis nous l'appliquons à 10 000. Si le facteur de profit reste presque inchangé ou a changé de manière insignifiante (devient indépendant de la longueur de l'échantillon), le système est susceptible de passer le test avant. Naturellement, les transactions devraient être de l'ordre de 600 à 1000 sur 10 000 barres (300 à 500 sur 5000 barres).


Il s'avère que si l'optimisation d'un TS se dégrade de manière significative au fur et à mesure que l'échantillon de test augmente, la probabilité de réussite d'un test avant est très faible.


Et certains TS, par exemple, optimisent sur 300 transactions, et sur 600 l'optimisation ne donne rien d'autre qu'un drawdown profond et un faible gain attendu. Un tel système peut être immédiatement brûlé.


En fait, il existe déjà une réponse concernant la longueur nécessaire et suffisante de l'échantillon. La longueur de l'échantillonnage doit être telle que l'optimisation avec un lot constant donne presque le même facteur de profit pour l'ensemble de l'échantillonnage et pour sa moitié.


----------------------------


En fait, cela signifie qu'un TS robuste devrait être (presque) stationnaire dans différents domaines d'optimisation avec un lot constant selon les critères suivants : gain attendu, facteur de profit (pourcentage de transactions rentables, si le Take Profit et le Stop Loss sont fixes). Et il peut être absolument non stationnaire par Z-score.


En d'autres termes, il ne faut pas prêter attention à des relations de type Z-score comme, par exemple, le drawdown ou le nombre de trades simultanés (sans) perdants. Comme l'a fait remarquer à juste titre Leov, une baisse anormalement faible peut indiquer un ajustement historique. En d'autres termes, un faible drawdown correspond à une répartition égale des transactions rentables et perdantes. Et une distribution uniforme dans un environnement non stationnaire est un non-sens.

 
Sorento писал(а) >>

Pardonnez l'amateur.

Pensées à voix haute.

Les systèmes qui sont optimisés au sens du testeur MT sont par nature défectueux.

Il est également possible que certains calculs de paramètres soient effectués en externe ou à partir de données dont MT ne dispose pas.

.. Et la branche est super ! Merci !

Et un manifeste !

Je ne suis pas d'accord. Il y a déjà une graine précieuse dans l'idée.

 
D'après mon expérience, dépasser la rentabilité réelle "raisonnable" d'un TS en pips conduit à une sur-optimisation. Il y a une limite à cette rentabilité pour chaque instrument. Il existe probablement un certain bénéfice maximal pour chaque instrument, qu'il est possible de gagner, en se concentrant, bien sûr, sur la perspective à long terme, plutôt que sur le hasard ou la chance "chanceux ou malchanceux".
 

Ce n'est pas comme si je rejetais les méthodes du MSUA.

Particulièrement familier avec les auteurs dans les années 70. et la science continue

 
Reshetov >> :

Comme vous le savez...

Une variante de la performance amateur :

Choisissez un segment court (disons 3 semaines) 2-3 semaines avant aujourd'hui pour l'optimisation, l'optimisation. Nous faisons passer les meilleurs résultats par tout l'historique disponible et nous voyons. Si la nature de la courbe avant et après l'optimisation est similaire à celle de la période d'optimisation, MTS a le droit de l'affiner. J'accorde plus d'importance au drawdown qu'au facteur de profit lorsque je l'évalue.

 

Je pense qu'un TS n'est pas un raccord si toutes les variables externes sont choisies logiquement, et non pas comme un résultat d'optimisation. Par exemple, le Take Profit n'est pas égal à la constante, mais à la volatilité (valeur ATR) pour N barres de l'ancienne TF. Je pense que nous devons effectuer l'optimisation sur un grand intervalle, puis analyser la zone des meilleures valeurs du paramètre optimisé et trouver une raison logique pour laquelle ces valeurs sont exactement celles-là. Par exemple, suite à l'optimisation, nous avons obtenu les meilleurs MoD et drawdown à TP {10;15} . Pourquoi en est-il ainsi ? Peut-être que c'est... (autre justification).

Pensez-vous que c'est logique ?

 
Il serait bon d'énoncer toutes les exigences d'un tel système. Jusqu'à présent, il n'y en a qu'un seul. J'aimerais entendre d'autres avis. Il doit y avoir beaucoup d'expérience collective. Nous avons juste besoin d'une volonté de partager nos connaissances. Sinon, ce sera une clameur comme d'habitude.
 
granit77 >> :

Une variante de la performance amateur :

Nous sélectionnons une courte période pour l'optimisation (disons, 3 semaines) 2-3 semaines avant aujourd'hui et nous l'optimisons. Nous soumettons les meilleurs résultats à tous les historiques disponibles et nous les examinons. Si la nature de la courbe avant et après l'optimisation est similaire à celle de la période d'optimisation, MTS a le droit de l'affiner. J'accorde plus d'importance au drawdown qu'au facteur de profit lorsque je l'évalue.

Le drawdown peut être n'importe quoi du côté court. Il peut être grand sur l'échantillon et petit sur l'attaquant. Un bon système, il est aussi rapide hors du drawdown qu'il l'est dedans.


En fait, les drawdowns sont le résultat de la dispersion. En d'autres termes, une série de transactions rentables et perdantes peut être répartie de manière homogène ou s'agglutiner. Comme on dit, c'est une question de hasard et ne dépend pas du TS robuste. Si le Z-Score était ajustable, le TS pourrait être basé sur le MM nu. C'est-à-dire qu'il n'y a aucun problème pour sélectionner le MM le plus adéquat pour un Z-score stationnaire.


C'est pourquoi je ne fais pas attention au drawdown, et pour l'optimisation je choisis une taille de dépôt énorme pour éviter les appels de marge même dans la situation la plus horrible. Sinon, l'AG dans le testeur ne sera pas kasher pour sélectionner des variantes.

 
Alex5757000 >> :

Je crois qu'un TS n'est pas un ajustement si, dans celui-ci, les valeurs de toutes les variables externes sont choisies logiquement, et non à la suite d'une optimisation.

C'est logique, je suis d'accord. En général, l'optimisation pour les non-différents - est une fiole alchimique. Ils fabriquent un TS à partir d'un tas d'indicateurs mal compris, entrent leurs paramètres dans l'outil externe, et c'est parti. Ils verront comment cela fonctionne. Mais si c'est un Graal ? Peut-être que les alchimistes étaient à la recherche de la pierre philosophale.

Naturellement, il y a la probabilité (j'oublie - un chiffre connu) qu'un singe, appuyant accidentellement sur les touches, joue "Guerre et Paix".

===

Nous devrions peut-être envisager le problème sous cet angle : à quoi sert l'optimisation ? Ce n'est pas pour ça.

 
Reshetov >> :

Comme vous le savez,

Une fenêtre glissante d'optimisation... Bien qu'il ne donne pas non plus une garantie totale. Mais la robustesse (dans le sens d'une faible sensibilité du système aux changements des paramètres d'entrée, et le prix est le même paramètre d'entrée) augmente encore. Et, oui, la signification statistique de la fenêtre devrait être au moins certaine.

 
Vinin >> :
Il serait bon de formuler toutes les exigences d'un tel système. Il n'y en a qu'un seul jusqu'à présent. J'aimerais entendre d'autres avis. Il doit y avoir beaucoup d'expérience collective. Tout ce dont vous avez besoin, c'est d'être prêt à partager vos connaissances. Sinon, ce sera une clameur comme d'habitude.

Si j'avais su mieux, j'aurais vécu à Sochi.


Jusqu'à présent, nous avons réussi à identifier uniquement les exigences minimales susmentionnées, ce qui nous permet d'éliminer sciemment les TP incapables de passer les tests préalables.


Eh bien, peut-être, il y a une autre remarque raisonnable de Leov disant que l'attente mathématique extrêmement inadéquate à un lot constant conduit à penser à un ajustement nu.

Raison: