L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 3215

 
fxsaber #:

Martin.

Si la tendance est à l'absence de recul, le martin fonctionnera-t-il ? et pourquoi pas ?

fxsaber #:

C'est une philosophie.

1)si un algorithme gagne de l'argent sur le marché pendant une longue période, c'est une régularité, non ?

2)et si vous superposez un autre algorithme à cet algorithme, qui va observer le premier algorithme et collecter des statistiques sur lui et donner des signaux de trading et gagner de l'argent.

Il s'agit alors déjà d'une philosophie, et non d'un modèle, selon vous.

C'est exactement ce que j'ai décrit avec l'exemple d'un trader...

 
mytarmailS #:

Vous dites donc qu'il s'agit d'une philosophie et non d'un modèle.

Je vois une perte de temps mutuelle. Je suis sûr que si nous parlions en face l'un de l'autre, la probabilité d'une compréhension mutuelle serait proche de un.


La superposition de quelque chose sur les résultats du CT est une pratique normale. Les filtres sont les plus courants. Moins souvent - les MM (par exemple, un filtre sur la courbe d'équilibre : si vous déviez plus fortement, vous modifiez les MM plus fortement). Encore plus rare : la recherche de régularités dans les résultats des transactions.

 
fxsaber #:

Je vois une perte de temps mutuelle. Je suis sûr que si nous parlions en face l'un de l'autre, la probabilité d'une compréhension mutuelle serait proche de un.

La proposition d'organiser une conférence aux Émirats arabes unis est toujours d'actualité.)

 
fxsaber #:

Je vois une perte de temps mutuelle. Je suis sûr que si nous parlions en face l'un de l'autre, la probabilité d'une compréhension mutuelle serait proche de un.

Je suis d'accord

 
Maxim Dmitrievsky #:

il fait une faute d'orthographe. OOS - test, validation - deuxième sous-échantillon (avec traine) pour l'évaluation du modèle (validation).

Le sous-échantillon de validation peut être égal au sous-échantillon de test ou séparé.

Cette séparation s'explique par le fait que les OI utilisent souvent le deuxième sous-échantillon pour interrompre la formation prématurément. On pourrait dire qu'il s'agit d'un ajustement, dans un sens.

C'est pourquoi ils utilisent trois sous-échantillons, dont l'un ne participe pas du tout à la formation.

Validation - confirmation de la validité. Oui/Non. L'évaluation est une chose assez délicate à faire pour un modèle de qualité d'ajustement.))) évaluations pour la qualité d'ajustement, donc))

La conversation porte sur les termes et leur signification, je pense.)

 
Valeriy Yastremskiy #:

Validation - confirmation de la validité. Oui/Non. L'évaluation est un point un peu délicat pour un modèle d'adéquation aux objectifs.))))) évaluations pour l'adéquation aux objectifs).

La conversation porte sur les termes et leur signification, je pense).

La validation précède l'évaluation, ou elle inclut l'évaluation, comme vous voulez. Ce n'est pas le but recherché.

et ce que vous auriez dû dire, c'est que les MOS sont des sous-échantillons qui prêtent à confusion :)) Mais ils produisent de multiples théories utopiques du marché à l'échelle industrielle.

Puisque notre objectif est de trouver le réseau le plus performant sur de nouvelles données, l'approche la plus simple pour comparer différents réseaux est d'estimer la fonction d'erreur sur des données indépendantes de celles utilisées pour l'apprentissage. Différents réseaux sont formés en minimisant la fonction d'erreur correspondante définie par rapport à l'ensemble de données de formation. Les performances des réseaux sont ensuite comparées en évaluant la fonction d'erreur sur un ensemble de validation indépendant, et le réseau présentant l'erreur la plus faible par rapport à l'ensemble de validation est sélectionné. Cette approche est appelée "méthode de maintien". Étant donné que cette seule procédure peut entraîner une certaine surcharge de l'ensemble de validation, les performances du réseau sélectionné doivent être validées en mesurant ses performances sur un troisième ensemble de données indépendant, appelé ensemble de test.

Une application de ce processus est l'arrêt précoce, où les modèles candidats sont des itérations successives du même réseau, et où la formation est arrêtée lorsque l'erreur sur l'ensemble de validation augmente, le modèle précédent (celui avec l'erreur minimale) étant sélectionné.

https://en.wikipedia.org/wiki/Training,_validation,_and_test_data_sets
 
Maxim Dmitrievsky #: Une application de ce processus est l'arrêt anticipé, où les modèles candidats sont des itérations successives du même réseau, et la formation s'arrête lorsque l'erreur sur l'ensemble de validation augmente, le modèle précédent (celui dont l'erreur est minimale) est sélectionné.

Sur des données avec des modèles, cela fonctionnera.
S'il n'y en a presque pas, il y aura un ajustement au graphe sur lequel l'arrêt anticipé a été effectué + une bonne trace. Vous pourriez simplement augmenter la trace d'une section supplémentaire et obtenir à peu près le même modèle.

 
Forester #:

Pour les données présentant des motifs, cela fonctionnera.
S'il n'y en a presque pas, il y aura un ajustement au tracé sur lequel l'arrêt précoce a été effectué + une bonne trace. Vous pourriez simplement augmenter la trace d'une section supplémentaire et obtenir à peu près le même modèle.

C'est une autre question.
 
Maxim Dmitrievsky #:
C'est une autre question.

C'est ce que je soulevais.

 
fxsaber #:

C'est ce qu'il soulevait.

Mélanger au minimum, bootstrap. Si vos échantillons proviennent de distributions différentes, quelle comparaison pouvez-vous faire ?
La MO ne recherche pas de modèles, elle classe les échantillons selon des modèles déjà connus.
Si la recherche de modèles via la MO sont des techniques distinctes que je pratique, alors la recherche de modèles via la MO != l'entraînement sur des sous-échantillons.
Raison: