L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 3210

 
mytarmailS #:

Toute la branche des chercheurs actifs sur le marché est assise ici sur R, c'est un peu le résumé...

L'équipe de recherche doit d'abord s'agrandir.
 

Le problème mentionné ci-dessus est qu'il existe un modèle qui a d'excellents résultats sur un fichier d'entraînement et un fichier OOS. Je comprends que le fichier d'entraînement peut être obtenu même par échantillonnage aléatoire, et que le fichier OOS est un résidu du fichier d'entraînement.

Mais lorsque le modèle est exécuté sur un fichier externe, le résultat est catastrophiquement mauvais.

Je me suis souvenu avoir eu une telle variante il y a quelques années.

J'ai réussi à en trouver la raison. La raison était l'anticipation, une raison extrêmement gênante, parce qu'il est très difficile de comprendre ce qu'est l'anticipation.

J'ai ensuite créé un modèle dans lequel l'enseignant est l'incrément de ZZ, et il y a beaucoup de prédicteurs, dans le calcul desquels ZZ a été impliqué. Par exemple, la différence entre le prix et ZZ. Lors de la formation, j'ai simplement coupé un morceau du fichier qui ne contenait pas les bons liens de ZZ. Et lors du calcul des prédicteurs, les valeurs ZZ manquantes ont été étendues par le dernier lien.

Les trois fichiers (dans Rattle) qui donnent un échantillon aléatoire ont donné une erreur de classification d'environ 5 %. Cependant, le quatrième fichier, qui n'est pas lié aux trois premiers, a donné une erreur aléatoire.

Si nous supprimons tous les prédicteurs dans le calcul desquels ZZ est impliqué, tout se met en place : l'erreur de classification est à peu près égale pour les quatre fichiers.

Il s'agit là d'un regard vers l'avenir.

Avec le recyclage, c'est clair : il faut faire très attention à utiliser l'optimisation dans le testeur, et dans R, il faut nettoyer la liste des prédicteurs des déchets. Mais comment détecter l' anticipation ?

D'après l'expérience passée, la chose suivante est évidente : si l'erreur de classification sur la formation, le test et la validation est inférieure à 10 %, vous devez éliminer les prédicteurs un par un jusqu'à ce que l'erreur atteigne 20 % 30 % ....

 
Les zigzags doivent être construits pour le moment de la barre, et non pour l'avenir.
 
Forester #:
Les ZigZags doivent être tracés au moment de la barre, et non dans le futur.

Pour la formation au modèle, le ZZ n'a pas été étendu, car il n'est pas nécessaire : le modèle recherche une seule ligne - les lignes voisines ne sont pas prises en compte, et l'échantillon pour la formation est de 1500 barres.

 
D'ailleurs, d'où vient cette connerie de zig-zag, qui l'a inventée en premier ?

Sanych, quand te souviendras-tu qu'un professeur est une cible + fichi ?))) pas une cible

Et la volatilité s'écrit sans H.
 
СанСаныч Фоменко #:

D'après l'expérience passée, la règle suivante s'applique : si l'erreur de classification sur la formation, le test et la validation est inférieure à 10 %, on élimine stupidement les prédicteurs un par un jusqu'à ce que l'erreur atteigne 20 % 30 % ....

Génie)))))

Comment trouver de vrais prédicteurs dont l'erreur est inférieure à 10 % ?

Ne me dites pas qu'ils n'existent pas, c'est une question de foi....

 
Maxim Dmitrievsky #:
D'où viennent ces conneries de zig-zag, qui les a inventées en premier ?

Êtes-vous vous-même intéressé ou pas du tout intéressé à écrire sur le fond du problème, plutôt que de vous montrer sous votre meilleur jour ?

 
СанСаныч Фоменко #:

J'ai réussi à trouver la raison. La raison est le regard vers l'avant, une raison extrêmement gênante, parce qu'il est extrêmement difficile de comprendre ce qu'est le regard vers l'avant.

J'ai ensuite utilisé un modèle dans lequel l'enseignant est l'incrément de ZZ, et il y a beaucoup de prédicteurs dans le calcul de ZZ. Par exemple, la différence entre le prix et ZZ. Lors de l'entraînement, j'ai simplement coupé un morceau du fichier qui ne contenait pas les bons liens de ZZ. Et lors du calcul des prédicteurs, les valeurs manquantes de ZZ ont été prolongées par le dernier lien.

Pour éviter le peeking, Forester dit correctement qu'il faut calculer les prédicteurs dans la boucle à chaque itération sans peeking....

Voilà la solution.

 
mytarmailS #:

Genius)))))

Comment alors trouver de vrais prédicteurs avec moins de 10% d'erreur ?

Ne me dites pas qu'il n'y en a pas, c'est une question de foi.....

C'est très simple.

J'ai écrit plus haut comment je l'ai fait avec l'exemple de ZZ.

Mais il ne s'agit pas de ZZ : on met les chants du professeur dans des prédicteurs et on obtient le bonheur avant de courir sur le fichier à l'extérieur.

Et on ne peut pas courir sur le fichier OUT et vivre heureux, comme le fait Maxim avec de très belles images.

Mais revenons au problème de l'anticipation. Suggestion de dépassement émoussé. Ou peut-être y a-t-il autre chose ?

 
СанСаныч Фоменко #:

Etes-vous intéressé ou pas du tout intéressé par le fait d'écrire sur les mérites du problème plutôt que de vous montrer sous votre meilleur jour ?

Il n'est pas du tout intéressant de résoudre les problèmes mentaux des autres.
Raison: