L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 3211

 
mytarmailS #:

Afin d'éviter le "peeking", Forester a raison de dire qu'il faut calculer les prédicteurs sans "peeking" à chaque itération de la boucle.

C'est la solution.

Avec l'exemple de ZZ, c'était évident.

Mais j'obtiens souvent une erreur de classification inférieure à 10 % sans ZZ. Il s'avère que c'est de la foutaise. Je l'ai jeté.

 
СанСаныч Фоменко #:

Et vous ne pouvez pas courir sur le fichier INE et vivre heureux, comme le fait Maxim avec de très belles images.

Vous rêverez de beaucoup de choses dans vos rêves
 
Maxim Dmitrievsky #:
Je ne suis pas intéressé par la résolution des problèmes mentaux des autres.

Vous vous occupez des belles images, même sur le marché. C'est donc votre principal problème.

 
СанСаныч Фоменко #:

Vous êtes en charge des belles images, même sur le marché. C'est donc votre principal problème.

Je n'ai aucun problème, y compris mental. Si vous voulez essayer de les créer, essayez.
 

Il existe une arithmétique simple selon laquelle la sélection des caractéristiques se fait à partir d'une pile d'informations hétérogènes, souvent sans rapport avec le sujet de l'étude.

Les BP dérivés sont tous liés à ce BP, vous ne pouvez que choisir meilleur/pire, souvent sans aucun sens.

Je ne parle pas d'espionnage, il s'agit là de problèmes enfantins. Il est évident que de telles manipulations n'ont abouti à rien au fil des ans. Mais ils persistent à les répéter.

Et les erreurs se produisent même dans l'échantillon parce qu'il est tout simplement impossible de marquer les transactions correctement.
Sur de nouvelles données, il peut y avoir des variantes, comme un biais dû aux tendances, ou un réentraînement sur des fluctuations imprévisibles, une confusion. La correction des erreurs de modèle à l'aide de la méthode cv permet d'y remédier.

Où sont mentionnées dans vos articles les méthodes simples et efficaces de correction des erreurs ?

Laissez-moi deviner : il n'y a pas de flèche vers ces connaissances sacrées dans la rubrique P, et nous ne sommes pas habitués à googler et à penser :).
 
Maxim Dmitrievsky #:

Il existe une arithmétique simple selon laquelle la sélection des caractéristiques se fait à partir d'une pile d'informations hétérogènes, souvent sans rapport avec le sujet de l'étude.

Les BP dérivés sont tous liés à ce BP, vous ne pouvez que choisir meilleur/pire, souvent sans aucun sens.

Je ne parle pas d'espionnage, il s'agit là de problèmes enfantins. Il est évident que de telles manipulations n'ont abouti à rien au fil des ans. Mais ils persistent à les répéter.

Et les erreurs se produisent même dans l'échantillon parce qu'il est tout simplement impossible de marquer correctement les transactions.
Sur de nouvelles données, il peut y avoir des variantes, telles que le biais dû aux tendances, ou le réentraînement sur des fluctuations imprévisibles, la confusion. Remédié en corrigeant les erreurs de modèle avec la méthode cv.

Où vos articles mentionnent-ils une seule fois des méthodes simples et efficaces de correction des erreurs ?

Les erreurs de CV ne sont pas corrigées par leur signification, car il s'agit d'une recherche de paramètres optimaux avec minimisation de l'erreur. Si un enseignant et ses prédicteurs sont faussement corrélés, CV trouvera nécessairement quelque chose de mieux dans ces déchets, mais ne résoudra pas le problème des déchets.

Le problème des déchets est résolu par la "capacité de prédiction", c'est-à-dire la capacité des valeurs prédictives à prédire l'une ou l'autre classe. Il est alors clair que l'erreur de classification est déterminée par le fait que les mêmes valeurs prédictives prédisent une classe à certains moments et une autre classe à d'autres moments. Rattle a même des images sur ce sujet.

 
СанСаныч Фоменко #:

L'ÉC ne guérit pas les erreurs au sens où il s'agit d'une recherche de paramètres optimaux avec minimisation de l'erreur. Si un enseignant et ses prédicteurs sont faussement corrélés, l'ÉC trouvera certainement quelque chose de mieux dans ces déchets, mais il ne résoudra pas le problème des déchets.

Le problème des déchets est résolu par la "capacité de prédiction", c'est-à-dire la capacité des valeurs prédictives à prédire l'une ou l'autre classe. Il est alors clair que l'erreur de classification est déterminée par le fait que les mêmes valeurs prédictives prédisent une classe à certains moments et une autre classe à d'autres moments. Rattle a même des images sur ce sujet.

Et alors ? Ne cherchez pas les corrélations, cherchez la causalité via la randomisation et le cv. Ou dois-je t'apprendre à le faire, Terver ?

Presque tous les modèles sur un échantillon fixe seront défectueux si vous ne faites pas de correction d'erreur. Parce que vous ne savez pas comment annoter un graphique. Si vous le saviez, mais ce n'est pas le cas. La partie la plus petite sera toujours correctement étiquetée de manière aléatoire, quoi que vous en pensiez.
 
СанСаныч Фоменко #:

Le problème mentionné ci-dessus est qu'il existe un modèle qui a d'excellents résultats sur un fichier d'entraînement et un fichier OOS. Je comprends que le fichier d'entraînement peut être obtenu même par échantillonnage aléatoire, et que le fichier OOS est le résidu du fichier d'entraînement.

Mais lorsque le modèle est exécuté sur un fichier externe, le résultat est catastrophiquement mauvais.

Je crois que j'ai mentionné l'OOS à plusieurs reprises récemment. Mais là, le bon OOS était, selon votre terminologie, un "fichier séparé".

SanSanych Fomenko #:

Et comment détecter le fait de regarder devant soi?

Si l'apprentissage se fait en plusieurs étapes (l'étape suivante utilise les calculs de l'étape précédente), la probabilité d'un "regard vers l'avant" est élevée. Il n'y a pas de recette générale, mais j'ai fait ce qui suit dans un cas.


Afin d'accélérer le calcul, il était nécessaire de se débarrasser des ticks inutiles. Par exemple, si vous réduisez le nombre de tics de 10 fois, les calculs seront accélérés d'autant. C'est une action très demandée.

Dans mon cas, je savais quels étaient les ticks dont j'avais besoin et ceux dont je n'avais guère besoin. Quoi qu'il en soit, j'ai construit un symbole personnalisé et j'ai commencé des backtests sur le symbole personnalisé et le symbole original.

Ici, il était important d'activer le nerdiness et d'obtenir une correspondance >99%. Il s'est avéré que je jetais trop de données au départ, et j'ai obtenu un résultat différent (bien sûr, meilleur que sur l'original).


Finalement, j'ai commencé à jeter moins que l'original, et tout a commencé à correspondre. C'est-à-dire que j'utilise en fait une méthode à deux passages lors de l'entraînement.


Il est donc probable que, pour détecter un coup d'œil après la passe précédente, vous puissiez utiliser la vérification décrite ci-dessus avant même d'effectuer des calculs sérieux. Il existe également une méthode du grand-père pour détecter le regard vers l'avant - "trop beau pour être vrai". Les débutants se réjouissent des bons résultats, tandis que les personnes plus mûres sont contrariées parce qu'elles réalisent qu'elles devront chercher leur propre erreur pendant longtemps.

 
fxsaber #:

Les nouveaux venus sont heureux de ces résultats, tandis que les plus expérimentés sont contrariés, car ils se rendent compte qu'ils devront assumer leurs propres erreurs pendant longtemps.

Quant aux professionnels, ils les regardent avec pitié et condescendance et se disent tranquillement : quand penserez-vous à changer le concept et non le décor ?

 
mytarmailS #:

Et les professionnels...

Je n'en ai rencontré aucun.

Raison: