Où se situe la limite entre l'ajustement et les modèles réels ? - page 21

 
Reshetov:

Pour les personnes particulièrement douées :


1) en russkomazykenetlova osobogodnymi.

Eh bien, vous pouvez le faire une fois, mais pas cinq fois de suite en cinq pages.

..............

2) Les méfaits du fractionnement des périodes.....

и

Le préjudice des tests non réalisés....

Je suis d'accord pour dire que ce sont des choses différentes.

Ne déformez pas des informations fiables. Il n'y en a pas beaucoup déjà..... )

 
Reshetov:

Non, ça ne l'était pas, si le test sur OOS était positif.

Si le résultat de l'OOS est négatif, cela ne signifie pas nécessairement que l'échantillon est adapté - le marché peut changer. Pour être sûr de l'adéquation, il est nécessaire d'effectuer des tests sur l'OOS avant l'échantillon et après l'échantillon. Si le résultat de ces deux avances est négatif, alors nous traitons déjà les armatures nues.

La réussite des tests prospectifs ne garantit pas la rentabilité des TS à l'avenir. Leur but est d'identifier les ajustements.

Afin de s'assurer que le CT n'est pas ajusté de manière brutale pour la période d'optimisation, nous effectuons un test OOS.


Tout est correct. Mais. L'OOS doit contenir des informations qui diffèrent de celles qui sont disponibles dans la période d'optimisation, pour que nous soyons sûrs que la TS est capable de généralisation (une certaine régularité est trouvée et les résultats seront similaires sur des données différentes mais contenant cette régularité). Sinon, le test sur OOS aura les mêmes résultats que sur l'échantillon, mais il ne confirmera pas que le TS a appris un modèle, et à l'avenir, le TS ne pourra pas travailler avec les mêmes résultats.


Maintenant, faites attention ! Question : Vérifiez-vous si OOS contient des données différentes de S ? Si oui, comment ?

 


Si quelqu'un trouve des inexactitudes dans le diagramme lui-même, qu'il me le fasse savoir...

Les dimensions sont vraies, mais l'image reste floue. Dans la fenêtre séparée, c'est clair.

 
Figar0:


Vous dites que vous préparez des données pour la formation. Pourriez-vous être plus précis, depuis combien de temps utilisez-vous ces techniques ? Quelque chose dans vos mots est très familier, je me souviens que j'ai suggéré, comme dans la branche sur le contexte, de préparer des données synthétiques avec des paramètres préalablement requis pour l'optimisation, de sorte que vous pouvez changer les paramètres de données et voir la réponse du TS. Je pense que vous étiez simplement d'accord avec moi, mais que vous suggériez une option légèrement différente de la mienne : préparer des données à partir d'éléments réels de l'histoire, n'est-ce pas ?

 
lasso:

1) dans russkomazykenetlova osogodarstvennyy.go.... )

Pour les personnes particulièrement douées :

voir. Dictionnaires et encyclopédies sur l'Académique : surdoués

P.S. Pour les connaisseurs particulièrement doués de la langue russe : il existe des espaces dans la langue russe pour séparer certains mots des autres.

 

Wai, wai, wai...

Comme vous êtes compliqué... :))

 

lasso, votre meilleure chance est de lire quelque chose de pas trop compliqué sur les grilles de nerfs. Je pense que c'est de là que vient toute cette terminologie. Peut-être que mes termes sont inexacts, veuillez m'excuser, cela fait longtemps que je ne l'ai pas lu :

1. données échantillons : la parcelle d'entraînement. C'est la section à partir de laquelle nous prenons directement les données et enseignons le réseau.

2. Données de vérification : section de vérification. Nous ne nous entraînons pas à cette partie, mais nous l'utilisons pour l'estimation des erreurs et le contrôle du moment où nous devons arrêter l'entraînement. Il existe une courbe bien connue d'erreur de vérification en fonction du nombre de passages. Il s'agit d'une courbe avec un minimum. Si nous nous entraînons trop longtemps, c'est-à-dire si nous ne nous arrêtons pas à temps, l'erreur dans la section d'entraînement diminuera toujours, mais l'erreur dans la section de vérification augmentera maintenant. C'est l'ajustement : nous avons bien approximé les données dans la section d'entraînement, mais nous avons exagéré, car l'erreur de vérification a commencé à augmenter. C'est la deuxième erreur qui permet d'évaluer la qualité de la formation et la capacité d'un réseau neuronal à généraliser.

3. les données d'essai. C'est un véritable OOS, hors échantillon.

La deuxième parcelle, la parcelle de vérification où l'erreur est évaluée, n'est pas OOS, bien que nous ne nous entraînions pas sur elle. Néanmoins, les données de cette section sont utilisées pour entraîner les données de la première. Afin de vérifier correctement et de manière totalement indépendante la qualité de la formation (plus précisément, la généralisation), nous devons prendre des données que nous n'avons pas encore vues ou utilisées dans la formation.

Ici, dans le testeur, nous n'avons pas de réseaux neuronaux. Une erreur est estimée directement à la section Données de l'échantillon. Il n'y a donc aucun moyen de transférer directement les méthodes nerveuses ici. Bien que, peut-être que xeon a inventé quelque chose ici aussi avec son TestCommander...

 
Reshetov:

Pour les personnes particulièrement douées :

voir. Dictionnaires et encyclopédies à l'Académie : spécialement doués

P.S. Pour les experts en langue russe particulièrement doués : il y a des lacunes dans la langue russe

Auriez-vous l'amabilité de donner votre interprétation du mot "doué" afin qu'il n'y ait pas d'interprétations perverses de celui-ci.
 
joo:
Figar0:


Vous dites que vous préparez des données pour la formation. Pourriez-vous être plus précis, depuis combien de temps utilisez-vous ces techniques ? Quelque chose dans vos mots est très familier, je me souviens que j'ai suggéré, comme dans la branche sur le contexte, de préparer des données synthétiques avec des paramètres préalablement requis pour l'optimisation, de sorte que vous pouvez changer les paramètres de données et voir la réponse du TS. Je pense que vous étiez simplement d'accord avec moi, mais que vous suggériez une option légèrement différente de la mienne : préparer des données à partir d'éléments réels de l'histoire, n'est-ce pas ?


préparer les données pour l'entraînement sur une règle quelconque revient à introduire un filtre supplémentaire dans le système.
 
Reshetov:

Pour ceux qui sont particulièrement doués : la non-stationnarité est l'absence de régularités statistiques, telles que le gain attendu et la variance.

Mettez des enveloppes de Bollinger sur le graphique et vous verrez quels sont les "motifs" de non-stationnarité, car le centre de l'indicateur est l'espérance, et la distance entre le centre et les enveloppes est la dispersion.

L'espérance et la variance n'ont de sens qu'avec un échantillon infiniment grand.
Raison: