L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 1545

 
mytarmailS:

Essayez de prévoir non pas le signe de l'augmentation, mais par exemple le prix du prochain genou en zigzag ou quelque chose de mieux. ou quelque chose comme ça, vous devriez utiliser la régression au lieu de la classification, mais la régression n'est pas un pas en avant, mais cherche l'extremum. je pense que vous serez agréablement surpris.

Hélas, il n'y a jamais de miracle, les variables agrégées comme les prix (extremum, etc.) ne sont pas du tout prédites, enfin, pas beaucoup mieux qu'avec une baguette (c'est-à-dire rien) et les variables relatives (déviation des prix par rapport à l'extremum) sont aussi mauvaises que les incréments.

 
Le Graal:

Hélas, les miracles ne se produisent jamais, les variables agrégées telles que le prix (extremum, etc.) ne peuvent pas du tout être prédites, enfin, pas beaucoup mieux qu'avec une baguette (c'est-à-dire rien), et les variables relatives (écart du prix par rapport à l'extremum) font aussi mal que les incréments.

Je vais vous dire, l'extremum qui sera le plus significatif dans l'heure qui vient, par exemple, est plus facile à prévoir que la valeur d'une bougie trailing, ou la couleur de la bougie, ou la direction d'un zigzag, ou....

Au moins, c'est vrai pour moi et cela a une explication raisonnable.

 
Maxim Dmitrievsky:

testeur python, liba - il y en a beaucoup de différents

Comme pour tout le reste - maintenant je cours avec des paramètres différents et l'enthousiasme a disparu, le même surfit que dans la forêt.

il est facile de voir où il y a une piste et où il y a un test. C'est-à-dire qu'en substance, rien n'a changé, le catbust n'a pas donné d'avantage.

Je vais essayer lstm plus tard.


Si vous pensez que c'est du surentraînement, alors arrêtez de générer des arbres plus tôt, mais à en juger par le nombre de transactions, il est plus probable que ce soit du sous-entraînement...

Qu'obtenez-vous pour différents échantillons de précision et de rappel ?

Avez-vous un échantillon dans le fichier - il serait intéressant d'essayer de comparer la dynamique de formation à mes données, si j'ai un bon modèle, je vous l'enverrai.


Au fait, j'ai décidé d'essayer de retirer des feuilles de CatBoost, je ne sais pas si je trouverai de bonnes parmi elles ou si l'idée de se booster elle-même ne le suppose pas, qu'en pensez-vous ?

 
mytarmailS:

Je vous dirai ceci, l'extremum qui sera le plus significatif dans l'heure qui suit par exemple, est plus facile à prédire que la valeur d'une bougie traînante, ou la couleur du chandelier, ou la direction d'un zig-zag ou....

En tout cas, c'est vrai pour moi et il y a une explication raisonnable.

Que signifie "l'extremum le plus significatif" - comment vérifier ultérieurement s'il est significatif ou non ?

Quelle est l'explication raisonnable de tout cela - très intéressant.

 
Aleksey Vyazmikin:

Si vous pensez à un surentraînement, alors arrêtez de générer des arbres plus tôt, mais à en juger par le nombre de transactions, il y a plus probablement un sous-entraînement...

Qu'obtenez-vous pour différents échantillons de précision et de rappel ?

Avez-vous un échantillon dans le fichier - il serait intéressant d'essayer de comparer la dynamique de formation à mes données, si j'ai un bon modèle, je vous l'enverrai.


Au fait, j'ai décidé d'essayer de tirer des feuilles d'arbre de CatBoost - je ne sais pas si je trouverai de bonnes feuilles parmi elles, ou si l'idéologie du boosting elle-même ne le suggère pas, qu'en pensez-vous ?

le sur-apprentissage au sens d'une faible généralisation. J'ai déjà écrit ci-dessus comment contourner le problème, mais il existe des approches plus élégantes, j'en suis sûr.

aucun problème avec la qualité du train + validation.

 

Je vois que tout le monde essaie de former le réseau avec l'aide d'un professeur.

Quelqu'un a-t-il essayé de s'entraîner sur une fonction cible, comme le facteur de récupération ?

 
Aleksey Vyazmikin:
pour faire sortir les feuilles d'arbre de CatBoost - je ne sais pas s'il y a de bons spécimens parmi eux, ou pensez-vous que l'idéologie du boosting ne le suggère pas ?

Non, ça ne l'est pas.

Le premier arbre de XGBoost est un modèle brut. Tous les autres arbres corrigent le premier avec un coefficient microscopique. Vous ne pouvez rien obtenir en travaillant individuellement, ils ne donnent de bons résultats qu'avec la foule entière.
En catbust apparemment le même principe de base, avec ses propres particularités.
 
Maxim Dmitrievsky:

Comme pour tout le reste - maintenant je fais des courses avec des paramètres différents et l'enthousiasme est parti, le même surfit que la forêt

il est facile de voir où se trouve la piste et où se trouve le test. C'est-à-dire qu'en fait, rien n'a changé, katbust n'a pas donné d'avantages.

Il est évidemment inutile de compliquer le système avec l'ensemble MQL + Python + Catbust. Et je vais chercher des régularités avec la forêt d'algues.

S'il y a un modèle, laissez la forêt l'apprendre à 90%, et non à 99% comme un catbust. L'essentiel est de le trouver, puis de chasser les pourcentages. Pour l'instant, les deux sont à environ 50%.

 

On dirait qu'avec ces forêts, tout le monde est parti dans la nature,

et c'est impossible de sortir de là sans aide ))))

 
elibrarius:

Apparemment, il est inutile de compliquer le système avec MQL + Python + Catbust. Et de rechercher des régularités avec la forêt d'Algiba.

S'il y a une relation, laissez la forêt vous enseigner 90% du temps, et non 99% comme le Catbust. L'essentiel est de le trouver, puis de chasser les pourcentages. Pour l'instant, nous obtenons environ 50% dans les deux cas.

Si vous n'avez rien à quoi comparer, vous ne comprendrez jamais rien.

Raison: