Où se situe la limite entre l'ajustement et les modèles réels ? - page 4

 
Reshetov:

La réponse est fausse. Lors de la formation NS, je prends la période d'OOS inférieure à la période de l'échantillon de formation. Parce que la BP n'est pas stationnaire et si vous faites le contraire, vous obtenez simplement un ajustement d'échantillon court et un résultat très discutable sur l'OOS.

Et je n'ai pas dit que l'OOS devait être supérieur ou égal à l'échantillon de formation.

Je dis qu'à mesure que la taille de l'OOS diminue, c'est-à-dire que la pertinence de l'optimisation augmente, la représentativité de l'OOS lui-même diminue également. C'est-à-dire que très rapidement, vous atteignez cette selle, que vous avez mentionnée à juste titre, il y a un effet très désagréable de l'optimisation avec un OOS trop petit, dans lequel le TC est optimisé sur l'OOS, mais pas sur l'échantillon de formation - "apprentissage à l'envers".

Comme toujours, le juste milieu se situe quelque part au milieu. :) Et ce juste milieu pour chaque TS particulier se trouve à différents endroits.

En bref, il n'y a pas et ne peut pas y avoir de recommandation claire sur la taille que devrait avoir l'OOS. Vous ne pouvez vous fier qu'à votre instinct et à votre expérience.

 

montage de la deuxième instance...

;)

 
Sorento:

montage de la deuxième instance...

;)

:) Mais quelle confiance en soi !
 
paukas:
:) Mais ça donne confiance en soi !

Le problème avec celui-là, c'est qu'il devient de plus en plus haut...

Pas adapté à l'âge.

;)

 
Jingo:

Où se situe la limite entre les modèles adaptés et les modèles réels ?

En observant le marché, nous constatons que les modèles éventuellement existants ne peuvent pas être paramétriquement constants. Chaque système présente un niveau d'adéquation et un niveau de régularité d'un ou plusieurs événements.

Et la prépondérance vers le deuxième niveau est responsable de la rationalité de l'idée de trading elle-même.

Penser de manière abstraite. Les réflexions des autres seraient intéressantes.

Elle dépend de nombreux facteurs, dont le principal est le système lui-même. Par exemple :

1. grand échantillon - c'est toujours bien, si à 6000 d'affilée cela fonctionne de manière cohérente - pourquoi ne pas en faire plus ?

2. la corrélation de certaines caractéristiques attendues - par exemple, l'influence d'un événement sur le marché est attendue et confirmée par l'histoire - alors vous pouvez prendre en compte un échantillon pas très grand, disons une centaine d'événements, ou même moins.

3. faire correspondre les paramètres à certains paramètres attendus. En principe, c'est la même chose qu'au point 2, mais de l'autre côté - par exemple, pour les systèmes de tendance, le pourcentage de transactions réussies et le rapport entre le bénéfice moyen et la perte sont à peu près clairs.

Et ainsi de suite.

Plus important encore, il n'existe pas de méthode fonctionnant à 100%. Bien que, d'un point de vue technique, il en existe une - elle s'appelle "diversification". :)

 
Tantrik:

Même endroit - où le pendule est...

:o)... Le rire attendu... Mais vraiment, les statistiques sont plus cool que beaucoup d'autres personnes. Ce sont les stéréotypes imposés par le système qui font que beaucoup de gens ne peuvent pas sortir du cercle dans lequel ils marchent. C'est une série de manuels d'AT où tout commence par des moyennes mobiles... La question est de savoir pourquoi se donner la peine de les étudier si l'ensemble de la direction avec les données de moyenne est nulle. Ils montrent au mieux le présent. Je parle de TOUS les indicateurs intégrés dans MT :o). Sauf peut-être un zigzag, qui est comme du lait pour tous. Et où aller ? Comme on dit à Deribasovskaya... C'est ce que nous faisons :o).



1008
paukas 20.01.2011 11:28 am
Gerasimm:

.... A savoir 5/95% pas pour le mieux....

Dites-nous s'il vous plaît, où avez-vous obtenu ces statistiques ?


Et ceci est une compilation. J'ai enseigné pendant deux ans dans une académie d'échange de TA... Environ 60 semaines pour 10 à 15 personnes, soit environ 700 personnes, dont je ne vois que 20 personnes en quelques années, ce qui ne signifie pas qu'elles gagnent toutes de l'argent. Je suis le seul qui gagne :o)))

 
Gerasimm:

:o)...rire attendu...

Et c'est une collection de trucs. J'ai enseigné dans une académie d'actions TA pendant deux ans... En gros, 60 semaines de 10 à 15 personnes, soit environ 700 personnes, dont je ne vois plus que 20 au bout de quelques années, ce qui ne veut pas dire qu'elles gagnent toutes de l'argent. Je suis le seul qui gagne :o)))

Nibora ! Toi ?

;)

 

Et c'est une compilation. J'ai enseigné dans une académie de TA pendant deux ans. En gros, 60 semaines pour 10 à 15 personnes, soit environ 700 personnes, dont je ne vois que 20 en quelques années. Et cela ne signifie pas qu'elles gagnent toutes. Je suis le seul qui gagne :o)))

Le fait est que de telles déclarations sans spécifier la période et la manière dont elles ont été obtenues sont totalement dénuées de sens. même pour les enseignants.

Et les vraies statistiques, par exemple celles que Rann a postées. Mais ce n'est pas non plus sur les clients, mais sur les comptes.

 
joo:

Et je n'ai pas dit que l'OOS devait être plus grand ou égal à l'échantillon de formation.

Je dis qu'en diminuant la taille de l'OOS, c'est-à-dire en augmentant la pertinence de l'optimisation, la représentativité de l'OOS elle-même diminue. C'est-à-dire que très rapidement, vous atteignez cette sellette que vous avez mentionnée à juste titre, il y a un effet très désagréable de l'optimisation lorsque l'OOS est trop petit, lorsque le TC est optimisé sur l'OOS, mais pas sur l'échantillon d'entraînement - "apprentissage à l'envers".

Comme toujours, le juste milieu se situe quelque part au milieu. :) Et ce juste milieu pour chaque TS particulier se trouve à différents endroits.

En bref, il n'existe pas et ne peut exister de recommandation claire sur la taille de l'OOS. Vous ne pouvez vous fier qu'à votre instinct et à votre expérience.

Il n'y a pas besoin de flair ici. La période d'échantillonnage et le taux d'échec à l'utilisation des paquets du réseau neuronal sont sélectionnés empiriquement une fois pour des entrées spécifiques et ne sont plus modifiés par la suite. C'est-à-dire que si les entrées de NS sont adéquates, alors tout le reste est une question de technique, mais pas d'intuition.

Pour le testeur MT, tout est plus compliqué car, comme nous l'avons déjà dit, il n'y a aucun moyen de séparer les mouches des côtelettes, c'est-à-dire l'échantillon optimisé de l'échantillon avant et il est presque impossible de saisir le moment où l'optimisation se transforme en ajustement. Pour être exact, il est possible d'interrompre manuellement l'optimisation et d'effectuer un nombre progressivement croissant de passes pour attraper le moment, mais si l'on tient compte du fait que le temps d'optimisation peut être assez long et qu'il faut changer de date à chaque fois, l'intérêt d'une telle approche se réduit comme peau de chagrin.

 
Sorento:

Nibora ! Vous ?

;)

Je n'ai pas compris...



1009
paukas 20.01.2011 12:45 a.m.

J'ai enseigné pendant deux ans dans une académie de TA. Environ 60 semaines à 10 - 15 personnes - environ 700 personnes, dont quelques années je ne vois que 20 personnes. Je suis le seul qui gagne :o)))

Le fait est que de telles déclarations sans spécifier la période et la manière dont elles ont été obtenues sont totalement dénuées de sens. même pour les enseignants.

Et les vraies statistiques, par exemple celles que Rann a postées. Mais il ne s'agit pas non plus de clients, mais de comptes.


Je connais les vraies statistiques. Et vous le savez aussi, si vous faites quelque chose sur le marché. D'autant plus que la période et la méthode sont clairement écrites en haut.

Raison: