L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 87

 
SanSanych Fomenko:

Tous les paquets (modèles) peuvent être divisés en deux catégories :

  • fondamentalement bon
  • ne s'adaptent pas en principe.

Les performances des paquets qui sont "fondamentalement bons" sont à peu près les mêmes, les différences ne sont pas significatives.

Le problème ne vient pas du modèle, mais de l'ensemble des prédicteurs et de leur préconditionnement. Si nous prenons un ensemble de prédicteurs, la possibilité de construire un modèle NON surentraîné, ainsi que l'ampleur de l'erreur dépendent peu de la modification du modèle. Il faut donc choisir le modèle le plus simple et le plus rapide parmi ceux qui "correspondent en principe".

PS.

D'après ma propre expérience. À moi plus de 75% de l'apport de travail dans la construction de TS est la sélection des prédicteurs, si tant est qu'on arrive à prendre un tel ensemble pour une variable cible particulière.

San Sanych, bonjour.

Et si, par votre méthode, pour 3 intervalles de données qui ne se croisent pas, nous obtenons des valeurs de prédiction différentes, alors elles sont non stationnaires (bruit, etc.), devons-nous suivre ?

 
SanSanych Fomenko:

Tous les paquets (modèles) peuvent être divisés en deux catégories :

  • fondamentalement bon
  • ne s'adaptent pas en principe.

Les performances des paquets qui sont "fondamentalement bons" sont à peu près les mêmes, les différences ne sont pas significatives.

Le problème ne vient pas du modèle, mais de l'ensemble des prédicteurs et de leur préconditionnement. Si nous prenons un ensemble de prédicteurs, la possibilité de construire un modèle NON surentraîné, ainsi que l'ampleur de l'erreur dépendent peu de la modification du modèle. Il faut donc choisir le modèle le plus simple et le plus rapide parmi ceux qui "correspondent en principe".

PS.

D'après ma propre expérience. Plus de 75% du travail nécessaire à la construction d'une CT consiste à sélectionner les prédicteurs, si tant est qu'il soit possible de choisir un tel ensemble pour une variable cible particulière.

Quels modèles, de quoi tu parles ... c'est comme une personne qui demande "quelle heure est-il ?" et la réponse est "que voulez-vous que je danse ?":)

Ne refaites jamais, s'il vous plaît, jamais cela, il est plus facile d'écrire 10 lignes de texte que de lire deux lignes de questions.

 
mytarmailS:

Peut-être que quelqu'un sera intéressé, j'ai trouvé un paquet qui peut simuler le trading et construire des systèmes de trading appelé quantstrat.

http://www.rinfinance.com/agenda/2013/workshop/Humme+Peterson.pdf

repost
 
Alexey Burnakov:

San Sanych, salut.

Mais si, grâce à votre méthodologie, nous obtenons des valeurs de prédicteurs différentes sur 3 segments de données qui ne se croisent pas lors de la formation, alors elles ne sont pas stationnaires (bruit, etc.), que devons-nous faire ?

La signification des prédicteurs n'est obtenue qu'une seule fois - lorsque le modèle est entraîné. Alors ce modèle est APPLICABLE, pas entraînable.
 
SanSanych Fomenko:
La pertinence du prédicteur n'est obtenue qu'une seule fois - lorsque le modèle est formé. Alors ce modèle est APPLICABLE, pas enseigné.
Vous devez l'enseigner plusieurs fois là-bas, si je me souviens bien ?
 
Alexey Burnakov:
Vous devez l'enseigner plusieurs fois, si je me souviens bien ?

Pas question !

Encore une fois.

1. Nous prenons une grande quantité de prédicteurs de séries temporelles, par exemple 10 000 observations (lignes).

2. Nous le divisons en deux parties, de manière strictement mécanique : 7000 première partie et 3000 deuxième partie.

3. Nous divisons la première partie en trois parties au hasard : pour la formation, le test et la validation.

4. Nous apprenons (fit - fit) le modèle sur l'échantillon d'entraînement.

5. Appliquer le modèle formé aux échantillons de test et de validation.

6. Si sur les trois échantillons - formation, test et validation - l'erreur est approximativement égale, alors la clause 7.

7. Appliquer le modèle sur la deuxième partie, qui est une série chronologique ininterrompue dans sa séquence temporelle.

8. Si l'erreur sur cette partie aussi est à peu près égale aux trois précédentes, alors :

  • cet ensemble de prédicteurs ne conduit pas à un réentraînement du modèle.
  • l'erreur qui a été obtenue sur les QUATRE ensembles (trois aléatoires et un séquentiel) et est une erreur qui est très difficile à réduire par l'ajustement du modèle.
Mes performances en matière d'erreur de modèle sont les suivantes : ada, randomforest, SVM et leurs nombreuses variétés. nnet est bien pire.

 
SanSanych Fomenko:

Pas question !

Encore une fois.

1. prendre un grand nombre de prédicteurs de séries temporelles, par exemple 10 000 observations (lignes)

2. Nous le divisons en deux parties, de manière strictement mécanique : 7000 première partie et 3000 deuxième partie.

3. Nous divisons la première partie en trois parties au hasard : pour la formation, le test et la validation.

4. Nous apprenons (fit - fit) le modèle sur l'échantillon d'entraînement.

5. Appliquer le modèle formé aux échantillons de test et de validation.

6. Si sur les trois échantillons - formation, test et validation - l'erreur est approximativement égale, alors la clause 7.

7. Appliquer le modèle sur la deuxième partie, qui est une série chronologique ininterrompue dans sa séquence temporelle.

8. Si l'erreur sur cette partie aussi est à peu près égale aux trois précédentes, alors :

  • cet ensemble de prédicteurs ne conduit pas à un réentraînement du modèle.
  • l'erreur qui a été obtenue sur les QUATRE ensembles (trois aléatoires et un séquentiel) et est une erreur qui est très difficile à réduire par l'ajustement du modèle.
Mes performances en matière d'erreur de modèle sont les suivantes : ada, randomforest, SVM et leurs nombreuses variétés. nnet est bien pire.

Voilà. Merci.

J'ai de bien meilleurs résultats sur la formation que sur les autres échantillons. Et lors de la validation croisée, le résultat est beaucoup plus proche du résultat final hors échantillon.

Je pense que votre thèse d'erreurs égales sur tous les échantillons parle du modèle underfit. C'est-à-dire que c'est la même chose partout.
 
Alexey Burnakov:
....C'est-à-dire que tout le monde est aussi mauvais.

Un peu, c'est juste un manque de cervelle et de temps.

Il faut commencer par la variable cible, puis sélectionner des prédicteurs pour cette variable, et enfin revérifier avec les mathématiques, etc. De toute façon, le processus est lent et je ne peux pas le formaliser.

 
SanSanych Fomenko:

Pas mal, mais pas assez de cervelle et de temps.

Il faut commencer par la variable cible, puis la faire correspondre à des prédicteurs, et enfin les vérifier avec les mathématiques, pour ainsi dire. En tout cas, le processus est douloureux et non formalisable pour moi.

En particulier en termes de signification, c'est une torture. Ce n'est pas ce que je veux dire.

Si vous êtes aussi bon partout, c'est un exploit. Mais le plus souvent, il sera aussi mauvais, ce qu'un modèle faible vous permet de réaliser.
 
le fil de discussion semble être mort....
Raison: