L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 360

 
Mihail Marchukajtes:
Intéressant ! !! Mais le problème est un peu différent. Supposons que votre TS diminue de 20 %. Quelle est la question ? Sortira-t-il de la baisse et gagnera-t-il le dessus ou continuera-t-il à s'épuiser ? ? ???? Comment savoir si votre TS a besoin d'être ré-optimisé ???
À mon avis, ce "COMMENT..." n'est pas différent de tout autre système. MO ou pas MO n'est pas pertinent. Choisissez un critère, et décidez quand et quoi.
 
Mihail Marchukajtes:
Intéressant ! !! Mais le problème est un peu différent. Supposons que votre TS diminue de 20%. Quelle est la question ? Sortira-t-il de la baisse et gagnera-t-il le dessus ou continuera-t-il à s'épuiser ? ? ???? Comment savoir si votre TS a besoin d'être ré-optimisé ???

Le TS ne doit PAS être sur-optimisé - c'est là tout l'intérêt de créer un TS. Tout le reste est un jeu de chiffres
 
SanSanych Fomenko:

L'UC ne doit PAS être recyclée - c'est tout l'intérêt de la création de l'UC. Tout le reste est un jeu de chiffres.
S'il est recyclé, il peut ou non être recyclé, mais tôt ou tard, il commencera à échouer d'une manière ou d'une autre. Je pense que c'était la question deMihail Marchukajtes - comment savoir quand ?
 
Yuriy Asaulenko:
Vous pouvez être recyclé ou non, mais tôt ou tard, il commencera à fuir de toute façon. Je pense que c'était la questionde Mikhail Marchukajtes - comment savoir quand ?


Vous ne comprenez pas le mot "recyclé".

Vous devez d'abord vous inquiéter du fait que le CT n'est pas recyclé - prouvez-le. Et ensuite, cette preuve doit être répétée. Si vous ne pouvez pas prouver qu'il n'est pas recyclé, vous ne pouvez pas l'utiliser.

 
SanSanych Fomenko:


Vous ne comprenez pas le mot "recyclé".

Tout d'abord, vous devez vous inquiéter du fait que le CT n'est pas recyclé - prouvez-le. Et ensuite, cette preuve doit être répétée. Si vous ne pouvez pas prouver qu'il n'est pas recyclé, vous ne pouvez pas l'utiliser.

Je suppose que je comprends).

Переобучение (переподгонка, пере- в значении «слишком», англ. overfitting) в машинном обучении и статистике — явление, когда построенная модель хорошо объясняет примеры из обучающей выборки, но относительно плохо работает на примерах, не участвовавших в обучении (на примерах из тестовой выборки).

Это связано с тем, что при построении модели («в процессе обучения») в обучающей выборке обнаруживаются некоторые случайные закономерности, которые отсутствуют в генеральной совокупности.

Даже тогда, когда обученная модель не имеет чрезмерного количества параметров, можно ожидать, что эффективность её на новых данных будет ниже, чем на данных, использовавшихся для обучения[1]. В частности, значение коэффициента детерминации будет сокращаться по сравнению с исходными данными обучения.

Способы борьбы с переобучением зависят от метода моделирования и способа построения модели. Например, если строится дерево принятия решений, то можно обрезать некоторые его ветки в процессе построения.
https://ru.wikipedia.org/wiki/Переобучение

Je pense qu'il s'agit d'une définition quelque peu simplifiée. Il est donc encore non seulement possible, mais peut-être même nécessaire de l'utiliser. Tout dépend des spécificités.

Nous utilisons des modèles grossiers, ce qui peut également être interprété comme un surentraînement.

 
Mihail Marchukajtes:
Intéressant !!! Mais le problème est un peu différent. Supposons que votre TS diminue de 20%. Quelle est la question ? Sortira-t-il de la baisse et gagnera-t-il le dessus ou continuera-t-il à s'épuiser ? ? ??? Comment savoir si votre TS a besoin d'être ré-optimisé ???

Si le modèle nouvellement formé dans le testeur n'indique pas un prélèvement de 20 % pour cette période et que l'ancien modèle dans le compte réel s'est avéré correct, le modèle a perdu sa pertinence et nous devons envisager de nouvelles régularités. Pourquoi ne pas réentraîner le modèle après chaque nouvelle transaction ? Et donnez-lui un historique actualisé des offres à saisir.
 
Maxim Dmitrievsky:

Si le modèle nouvellement formé dans le testeur ne donne pas un drawdown de 20% pendant cette période, et que l'ancien modèle sur le compte réel l'a fait - alors reformez-le, le modèle a perdu sa pertinence et doit prendre en compte de nouveaux modèles. Pourquoi ne pas réentraîner le modèle après chaque nouvelle transaction ? Et vous devriez également lui donner l'historique actualisé des offres à saisir.
)) Je réfléchissais justement à ce sujet hier. J'ai décidé qu'il serait préférable d'enregistrer les transactions et, une fois celles-ci terminées, de soumettre un échantillon de formation pour saisie. J'en apprendrais davantage au fur et à mesure que le jeu avance.
 
Yuriy Asaulenko:

Je suppose que je comprends).

Je pense qu'il s'agit d'une définition quelque peu simplifiée. Par conséquent, il est non seulement possible, mais peut-être même nécessaire de l'utiliser. Tout dépend des spécificités.

Nous utilisons des modèles grossiers, ce qui peut également être interprété comme un surajustement.


Dans la citation, le sur-apprentissage est une considération trop subtile des caractéristiques, et vous avez le dégrossissage comme sur-apprentissage !

Vous êtes le mieux placé pour le savoir. Ce n'est pas la première fois.

 
Maxim Dmitrievsky:

Si le modèle nouvellement formé dans le testeur ne donne pas un drawdown de 20% pendant cette période, et que l'ancien modèle sur le compte réel l'a fait - alors reformez-le, le modèle a perdu sa pertinence et doit prendre en compte de nouveaux modèles. Pourquoi ne pas réentraîner le modèle après chaque nouvelle transaction ? Et donnez-lui l'historique actualisé des transactions à saisir.

La formation, le recyclage et la reconversion (superfitting) sont des choses fondamentalement différentes.

Toute cette formation sur chaque nouvelle barre est mâchée et mâchée sur ce forum et en général au sein de TA.

Dans la lutte contre le surentraînement (overfitting), je connais deux méthodes.

1. nettoyage de l'ensemble des prédicteurs des prédicteurs non liés à la variable cible - nettoyage du bruit de l'ensemble des prédicteurs d'entrée. Les 100 premiers messages de ce fil de discussion en ont parlé en détail.

2. Après avoir nettoyé l'ensemble des prédicteurs du bruit, nous commençons à ajuster le modèle avec l'échantillon d'entraînement, puis avec l'échantillon de test et de validation, qui sont des échantillons aléatoires d'un fichier. L'erreur dans les trois ensembles devrait être approximativement la même.

3. Prenez ensuite un fichier distinct du précédent et exécutez le modèle sur celui-ci. Là encore, l'erreur devrait être à peu près la même que les précédentes.

4. Si ces contrôles sont effectués régulièrement, alors votre question : "un affaissement de 20% est un signal pour le recyclage" n'en vaut pas la peine du tout, car à la suite des trois premières étapes, l'affaissement est obtenu comme paramètre du modèle et le dépasser indique que le modèle ne fonctionne pas et qu'il faut tout recommencer.

 
SanSanych Fomenko:


Dans la citation, le surentraînement est une considération trop fine des caractéristiques et vous avez le dégrossissage est le surentraînement ? !

Vous êtes le mieux placé pour le savoir. Ce n'est pas la première fois.

Ce n'est pas la première fois non plus. Mais pourquoi seulement la grossièreté. Un autre exemple se trouve dans la définition : un modèle trop complexe trouve quelque chose qui n'existe pas - des modèles apparents.

Vous avez une compréhension très simpliste ou unilatérale du surentraînement, je pense.

SanSanych Fomenko:

L'apprentissage, le sur-entraînement et le sur-entraînement (overfitting) sont des choses fondamentalement différentes.

Toute cette formation sur chaque nouvelle barre est passée à la moulinette sur ce forum et généralement au sein de TA.

Dans la lutte contre le surentraînement (overfitting), je connais deux méthodes.

.....

4. Si vous effectuez ces vérifications régulièrement, votre question : " un effondrement de 20 % est un signal pour le recyclage " ne vaut pas la peine du tout, car les trois premières étapes ont abouti à un effondrement en tant que paramètre du modèle et aller au-delà indique que le modèle n'est pas exploitable et que vous devez recommencer depuis le début.

Eh bien, oui. Mais pas exactement mâché. La littérature envisage sérieusement cette option - le pré-enseignement au cours d'une pièce de théâtre. Comment et quand vous pouvez le faire, et quand vous ne pouvez pas le faire, c'est une autre question. Il y a des limites partout.
Raison: