Gamme d'optimisation - page 6

 
ITeXPert писал(а) >>

Bonjour à tous !

J'aimerais poser une question sur la plage de données utilisée pour optimiser les EA. C'est-à-dire sur quels délais et quelles plages choisir. Par exemple, pour H1, est-il suffisant d'optimiser un EA sur un mois, trois mois ou un an de données ? J'aimerais voir ces valeurs pour différentes périodes de temps et au moins une brève justification du choix. Merci beaucoup.

Vous devez d'abord déterminer ce qu'est l'optimisation pour vous. Si vous prenez un système à partir de zéro et que vous essayez de l'optimiser en fonction des X derniers jours/années, il sera inadapté et ira directement à la poubelle. Il en va de même si la plage d'optimisation est définie par un certain nombre de transactions. La méthode mise en œuvre dans TS doit fonctionner pendant une longue période (plus c'est long, mieux c'est) et de préférence sur différents symboles. Mais travailler ne veut pas dire moudre de l'argent avec des paramètres fixes. Il doit être adaptable. Cela signifie que ses paramètres optimaux doivent changer suffisamment lentement et régulièrement pour que vous puissiez gagner de l'argent en utilisant les paramètres ajustés à l'historique le plus proche. Ou même suspendre la transaction à temps, si le marché ne correspond pas à votre système. Pour cela, vous devez savoir quels paramètres et dans quelles limites il est judicieux d'optimiser, ainsi que les critères de rejet du système (par exemple, lorsqu'il n'y a pas de valeurs optimales à l'intérieur des zones prédéfinies pendant la période optimisée). En d'autres termes, vous devez connaître les limites d'applicabilité et d'optimisation de votre système, ce que vous pouvez découvrir en utilisant l'historique des tests ou des transactions. Il est nécessaire d'obtenir la robustesse de la méthode et non de ses paramètres optimaux individuels. Pour ce faire, vous ne devez pas analyser des séries distinctes, mais le comportement dans les plages optimales de paramètres et la dynamique du comportement des paramètres optimaux dans ces plages au fil du temps.
 
Avals >> :

J'ai l'impression que je ne parlais pas de la même chose :((((

 
Avals >> :
... Cela signifie que ses paramètres optimaux doivent changer suffisamment lentement et régulièrement pour que vous puissiez gagner de l'argent, en utilisant des paramètres ajustés à l'historique le plus proche. Ou même d'arrêter de négocier à temps, si le marché ne correspond pas à votre système. Pour ce faire, vous devez savoir quels paramètres il est judicieux d'optimiser et dans quelles limites, ainsi que les critères d'abandon du système (par exemple, s'il n'y a pas de valeurs optimales à l'intérieur des zones prédéterminées pendant la période d'optimisation).

C'est là tout le problème, cela ne fonctionnera PAS - les paramètres optimaux sont censés changer lentement, le marché n'est PAS stationnaire, et à tout moment...

Ces paramètres et leurs limites peuvent changer radicalement).

 
budimir >> :

C'est là tout le problème, cela ne fonctionnera PAS - les paramètres optimaux sont censés changer lentement, le marché n'est PAS stationnaire, et à tout moment...

Ces paramètres et leurs limites peuvent changer radicalement).

c'est le but :))))

 
budimir писал(а) >>

C'est là tout le problème, cela ne fonctionnera PAS - les paramètres optimaux sont censés changer lentement, le marché n'est PAS stationnaire, et à tout moment...

ces paramètres et leurs limites peuvent changer radicalement :-o)

Pour cela, il existe des critères d'abandon du système, et dans la plupart des cas, cela peut être fait avant qu'il ne soit exprimé en actions. De même, personne n'interdit de négocier uniquement des positions longues si les positions courtes ne fonctionnent pas et vice versa ;) Tout cela peut être fait en temps voulu si l'on ne prend pas des décisions uniquement basées sur l'évolution de l'équité des paramètres négociés.

 

Dernièrement, j'ai essayé d'utiliser une sorte de coefficient de stabilité.

Par exemple : optimisation pendant un an, puis pour chaque mois, on compte le coefficient de croissance (augmentation de DEPO par mois). Le coefficient maximum et minimum est calculé. Leur rapport est appelé coefficient de stabilité. Si elle tend vers un, alors c'est la variante idéale. Le coefficient minimal doit également être supérieur à un. Tous les paramètres sont enregistrés dans le fichier. Je n'ai pas le temps de faire tout ça sous une forme décente. Je veux l'afficher sur mon forum.

 
Vinin писал(а) >>

Dernièrement, j'ai essayé d'utiliser une sorte de coefficient de stabilité.

Par exemple : optimisation pendant un an, puis pour chaque mois, on compte le coefficient de croissance (augmentation de DEPO par mois). Le coefficient maximum et minimum est calculé. Leur rapport est appelé coefficient de stabilité. Si elle tend vers un, alors c'est la variante idéale. Le coefficient minimal doit également être supérieur à un. Tous les paramètres sont enregistrés dans le fichier. Je n'ai pas le temps de faire tout ça sous une forme décente. Je veux l'afficher sur mon forum.

À mon avis, l'inconvénient réside dans les plages de temps fixes : mois, année. Pour cette raison, je suis d'accord avec Neutron - pour comparer les paramètres, nous devrions utiliser un nombre fixe de transactions et ensuite vous pouvez calculer non seulement l'augmentation de DEPO (profit) mais aussi le profit/risque en comparant, par exemple, le facteur de profit.

 
Avals писал(а) >>

À mon avis, l'inconvénient réside dans les délais fixes : mois, année. À cet égard, je suis d'accord avec Neutron - pour comparer les indices sur un nombre fixe de transactions et alors vous pouvez compter non seulement l'augmentation de DEPO (profit), mais aussi le profit/risque, en comparant par exemple le facteur de profit.

Le système peut toujours être amélioré. Si seulement nous avions des critères.

 
Vinin >> :

........Quand il y a des critères.

C'est là tout l'intérêt :), que chacun ajuste ses critères pour lui-même, même après avoir lu un "grand livre sur l'optimisation".......... PAS DE REPONSES A TOUTES LES QUESTIONS..... quelque part et quelqu'un travaille, quelque part non..... etc. etc.....

..................

Malheureusement, je ne dispose pas d'un appareil statistico-mathématique qui me permettrait de calculer tout cela, mais je ne pense pas que cela soit utile non plus - il y a trop d'options......

 

D'une manière générale, si l'on considère l'optimiseur de Strategy Tester avec un œil d'oiseau, il est clair qu'il ne diffère pas du réseau neuronal. En effet, nous avons un certain nombre de paramètres personnalisables, un certain nombre d'indicateurs utilisés et une sortie qui nous signale d'ouvrir une position à Long ou Short. En règle générale, le nombre de paramètres ajustables est le même que le nombre d'indicateurs (entrées), il s'agit d'une variante du perseptron classique à couche unique. Mais nous ne le savons pas, et pourtant nous l'utilisons activement dans nos transactions. Et il serait utile de mieux connaître l'appareil utilisé lors du travail avec NS, ce qui permettrait d'éviter les erreurs standard et le comportement sous-optimal dans l'optimisation des paramètres. Par exemple, il en découle immédiatement la limitation du testeur de stratégie, car le persepron à couche unique n'est pas un approximateur optimal et, par conséquent, il est en principe impossible d'obtenir le meilleur résultat possible pour le MTS en termes de rentabilité des TS sur celui-ci dans cette formulation.

Pour le NS, le nombre optimal de paramètres d'ajustement pour une longueur d'historique prédéterminée est obtenu, ne pas en tenir compte conduit à l'effet de sur-optimisation des paramètres (je l'ai déjà mentionné ci-dessus). C'est de là que viennent tous les problèmes de mémorisation de l'historique par le testeur et de perte des dépôts lors des tests en amont. De plus, si l'on tient compte du fait que le perseptron à deux couches est un approximateur universel, alors n'importe quel TS avec des liens astucieux entre les indicateurs utilisés (un avec multiplication, division, etc.) peut être réduit à la somme pondérée des mêmes indicateurs sans perdre de puissance. C'est l'architecture classique du NS et nous pouvons utiliser la méthode d'optimisation des paramètres la plus efficace au monde - la méthode de propagation d'erreur à rebours. Il est évidemment plus rapide de plusieurs ordres de grandeur qu'un simple algorithme de force brute et même génétique utilisé dans le testeur. De plus, il n'y a rien de difficile dans un tel transfert vers une nouvelle architecture, il suffit de prendre la somme des signaux indicateurs et de trouver les pondérations optimales.

Ce que je veux dire est le suivant : nous sommes tous très sceptiques à l'égard de l'intelligence artificielle et de tout ce qui s'y rapporte, en particulier de la NS. Mais nous ne remarquons pas que nous exploitons ce domaine de connaissances de manière implicite à chaque étape - l'optimisation dans un testeur de stratégie ! Nous exploitons cette zone de la manière la plus sous-optimale qui soit - en tâtonnant. D'où le désir fréquent d'écarter les "mauvaises" passes dans une série de tests, etc. En fait, le monde est plus simple et il n'y a rien à faire, mais il suffit de connaître le domaine d'application de la méthode et ses limites.

Raison: