Conseiller pour un article. Des tests pour tous les arrivants. - page 8

 
Avals:


Il n'est pas du tout nécessaire d'avoir un avant dans une analyse correcte des ensembles.

L'essence du forward est d'évaluer si les extrêmes des paramètres optimisés flottent dans le temps. C'est-à-dire éliminer les cas où il y a plusieurs extrema locaux dans toute la zone de test (optimisation + autofsample). On peut la couper beaucoup mieux en analysant séparément pour chaque option la singularité de son extremum et sa monotonicité. C'est-à-dire qu'il est déjà garanti qu'une option ne "flotte" pas dans le temps. Et la méthode Forward présente un grave inconvénient : elle ne prend en compte que les points individuels de la surface d'optimisation et non l'ensemble. Cela, associé à la division phonon des parcelles en échantillons d'optimisation et en échantillons automatiques, réduit la fiabilité statistique d'une telle analyse sous la plinthe)). Ce n'est qu'une prise de conscience - on aura peut-être la chance de sélectionner un autofsample et un ensemble d'options de merde sera passé, ou vice versa - un autofsample tombera dans une période de baisse temporaire d'un "bon" ensemble d'options.

Mais dans tous les cas, je répète que la tâche d'optimisation consiste à évaluer la robustesse de chaque paramètre du système. En cas de doute, il est préférable de l'écarter ou de le modifier. Ne laissez que ce qui est soutenu à 100% par les statistiques et la logique commerciale.


Vous voulez donc dire qu'au lieu de réaliser une série de tests prospectifs, il est préférable d'optimiser les paramètres sur une période historique aussi large que possible ? En principe, cela n'est pas faux non plus, car il est plus difficile d'"ajuster" des paramètres sur une zone plus vaste pour obtenir une belle courbe. :)
 
Avals:


ne pas déformer accidentellement quoi que ce soit. Ceci est fait par l'AG lui-même par le mécanisme de mutation. L'optimisation est nécessaire pour vérifier la robustesse de chaque option individuelle, et non pour trouver des extrema globaux.

Justement, GA ne cherche pas seulement des extrema globaux mais un extremum qui surpassera les autres extrema en ce qui concerne la valeur de la fonction multivariée, c'est à dire

max(y = f(x0, x1, ... xn))

où :

x0, x1 ... xn - paramètres d'entrée du TS

y est une fonction de fitness de l'AG

Et il n'y a aucune garantie que l'extremum de l'AG trouvé au point de l'espace multidimensionnel avec les corrdinates {x0, x1, .... xn} n'est pas flottant dans le temps et n'est un extremum de temps que pour une partie des données historiques. Si l'optimisation était capable de vérifier la robustesse, l'ajustement n'existerait pas du tout. Et puisque la concordance existe, des vérifications supplémentaires sont nécessaires, y compris des tests avant.

Avals:

Mais dans tous les cas, là encore, la tâche d'optimisation consiste à évaluer la robustesse de chaque paramètre du système.

Des conneries et du sabotage. Par définition, l'optimisation consiste à trouver les extrêmes et ne résout aucun autre problème.
 
tol64:

Vous voulez donc dire qu'il est préférable d'optimiser les paramètres sur un intervalle d'historique aussi large que possible plutôt que de réaliser une série de tests prospectifs ? En principe, il y a là aussi une part de vérité, car il est plus difficile d'"ajuster" des paramètres sur un intervalle plus large pour obtenir une belle courbe. :)

Si les citations étaient stationnaires, nous obtiendrions davantage de statistiques correctes, car la loi des grands nombres s'applique aux données stationnaires.

Et comme nous avons affaire à des données non stationnaires, les statistiques et la loi des grands nombres ne fonctionnent pas ici. Parce que la loi des grands nombres de Chebyshev stipule qu'avec un nombre croissant d'essais et la présence d'une espérance = Const et d'une variance finie, les données statistiques se rapprochent de leurs valeurs constantes. La non-stationnarité exclut la constance des attentes et la dispersion finie et, par conséquent, nous sommes incapables de raffiner quoi que ce soit puisque ce qui n'existe pas et ne peut exister par définition n'a aucun sens pour être calculé et raffiné.

Il est difficile de chercher un chat noir dans une pièce sombre, surtout s'il n'y est pas (cf. Confucius).

 
Reshetov:


Des conneries et du sabotage. Par définition, l'optimisation consiste à trouver les extrema et ne résout aucun autre problème.
L'optimiseur peut encore faire beaucoup de choses, si vous l'utilisez correctement. Il n'y a que les nerds qui s'y frottent, en optimisant un tas de paramètres pour utiliser une seule ligne supérieure ;)
 
IgorM:
Hv. Yuri, et l'article ? Quand sera-t-il publié ?

Je viens d'envoyer le texte de l'article pour qu'il soit vérifié.

Après vérification, il sera disponible à l'adresse suivante : https://www.mql5.com/ru/articles/366.

 
Reshetov:

Je viens d'envoyer le texte de l'article pour vérification.

Après vérification, il sera disponible à l'adresse suivante : https://www.mql5.com/ru/articles/366.

Merci !

ZS : Je peux déjà voir les premières lignes de l'article : "404 Requested page not found", me coupe le souffle .... )))))

ZZY : J'espère que votre article dira comment choisir la structure optimale du réseau, et quand le réseau est considéré comme suffisamment formé, ici je gâche l'apprentissage 2x2 ...

>
 
IgorM:

Merci !

ZS : Je peux déjà voir les premières lignes de l'article : "404 Requested page not found", me coupe le souffle .... )))))

ZZY : J'espère que votre article dira comment choisir la structure optimale du réseau, et quand le réseau est considéré comme suffisamment formé, ici je gâche l'apprentissage 2x2 ...

Oui, mais ce n'est pas exactement un réseau, car la première couche est un système expert pour trois entrées, pas des neurones, la couche cachée est un perceptron, c'est-à-dire déjà un neurone, et la sortie est une sigmoïde linéaire. La nécessité et la suffisance de la sélection des règles pour la base de connaissances du système expert sont décrites en détail. C'est-à-dire qu'il n'est pas nécessaire d'optimiser quoi que ce soit. Le système expert doit remplir toutes les conditions décrites dans l'article et aucune autre architecture ne lui convient - rien ne peut être supprimé car il n'est pas suffisamment entraîné, et rien ne peut être ajouté car il est certain qu'il sera réentraîné.

Il y a des instructions détaillées sur la façon d'optimiser un EA avec des tests avancés et sur la façon d'effectuer une vérification supplémentaire de la stabilité de l'extremum identifié. On ne peut pas dire que tout cela soit plus que suffisant pour considérer que le TS est formé à 100% dans des conditions de non-stationnarité, mais on peut dire que c'est tout ce qu'il faut faire pour éviter d'être pris dans l'instabilité ou le caractère aléatoire d'un test à terme.

 
Reshetov:

Oui, mais ce n'est pas exactement un réseau, car la première couche est un système expert pour trois entrées, pas des neurones, la couche cachée est un perceptron, c'est-à-dire déjà un neurone, et la sortie est une sigmoïde linéaire. La nécessité et la suffisance de la sélection des règles pour la base de connaissances du système expert sont décrites en détail.

Intéressant..., je pense essayer de créer un système à partir d'un ensemble de SN - l'entrée des SN devrait être alimentée par les sorties de SN déjà formés.
 

Lapublication de l'article a été temporairement retardée. Le texte a été modifié, mais les captures d'écran, en raison de mon inattention, ont dépassé la taille autorisée. Je vais devoir relancer l'optimisation à nouveau pour faire des captures d'écran. Et l'optimisation dans MT5 est terriblement lente. Par conséquent, la publication a été reportée indéfiniment pour le moment.

 
Reshetov:


La publication de l'article a été temporairement retardée. Le texte a été modifié, mais les captures d'écran, en raison de mon inattention, ont dépassé la taille autorisée. Je vais devoir relancer l'optimisation à nouveau pour faire des captures d'écran. Et l'optimisation dans MT5 est terriblement lente. Par conséquent, la publication a été reportée pour le moment.


Les captures d'écran peuvent-elles être réduites dans Photoshop sans perte de qualité ?

P.S. Bien que, s'il y a des éléments du terminal, cela ne fonctionnera pas très bien.

Raison: