L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 1488

 
Aleksey Vyazmikin:

Nous devons partir du principe que tout ce que nous pouvons faire est de développer un algorithme pour la meilleure adaptation aux données, car nous ne connaissons pas l'avenir et il existe de nombreuses variations, même sur la base des valeurs prédictives disponibles. Et si nous avons de la chance, nous pouvons détecter un modèle qui continuera à exister pendant un certain temps, c'est pourquoi il est important de rechercher un tel modèle avec certains critères, et la logique dit qu'il doit au moins s'agir d'un modèle qui se produit dans l'ensemble de l'échantillon.

Il n'y a qu'un seul modèle sur le marché et il y en aura toujours un - les cycles de temps, les périodes : session de négociation, jour, semaine, ..., et leurs demi-périodes. Ces cycles, en principe indestructibles, forment une structure temporelle complexe et déterminent le volume d'un échantillon à travailler. En identifiant le comportement des prix à l'intérieur de cette structure hiérarchique, le système de trading fonctionnera toujours.

 
Le marché n'est pas fractal en soi. Elle ne possède que les propriétés d'autosimilarité à l'intérieur des périodes de temps, en y formant certaines structures. Le volume du tic ou de tout autre échantillon par ballon ne peut être choisi - il doit s'agir d'une valeur définie qui satisfait aux cycles temporels imbriqués.
 
Aleksey Vyazmikin:

Les algorithmes standard sont conçus pour travailler avec des phénomènes stationnaires, des systèmes fermés, de sorte que là, toute information est considérée a priori comme utile et n'est pas évaluée en termes de caractère aléatoire, mais uniquement en fonction de la possibilité de l'utiliser pour la tâche à accomplir (classification par cible), alors que nous avons beaucoup de bruit et j'ai suggéré une façon logique de le traiter.

C'est-à-dire l'uniformité des métiers réussis dans la zone de formation ?
C'est très bien comme ça, car l'ajustement est exactement pour l'apprentissage, à 0 % d'erreur près.

Je suppose que cela devrait être le cas lors de la régularisation/du dégrossissement du modèle par la réduction de la profondeur ou d'autres méthodes. Et s'arrêter par exemple à 20% d'erreur dans le domaine de la formation.

Je pense qu'il n'y a qu'une seule solution : après l'ajout de chaque version de nœud, faire passer toutes les données par la partie de l'arbre qui en résulte et analyser la ligne d'équilibre.

Nombre de versions = (nombre de caractéristiques * nombre de nœuds dans l'arbre * 3 (si divisé par quartiles)) * nombre d'arbres

Cela prendra beaucoup de temps à calculer, j'ai bien peur que ce soit encore plus long qu'en Nouvelle-Zélande.

 
Alexander_K:

Il n'y a qu'un seul modèle sur le marché et il y en aura toujours un - les cycles de temps, les périodes : session de négociation, jour, semaine, ... ainsi que leurs semi-périodes. Ces cycles, en principe indestructibles, forment une structure temporelle complexe et déterminent le volume de l'échantillon à travailler. En identifiant le comportement du prix dans cette structure hiérarchique, le système de trading fonctionnera toujours.

Je ne nie pas l'importance du temps, mais cela ne suffit pas pour créer un modèle - il faut d'autres variables qui influencent le prix.

 
Aleksey Vyazmikin:

Je ne nie pas l'importance du temps, mais cela ne suffit pas pour créer un modèle - il faut d'autres variables affectant les prix.

C'est suffisant.

C'est dans les cycles temporels que se trouve le Graal. La structure d'un cycle temporel fait partie de la structure d'un autre cycle.

Si vous travaillez avec le même tailles d'échantillon qui correspondent à différents des périodes de temps strictement définies, alors ces structures imbriquées sont comme sur la paume de votre main.

Le SN ne peut pas s'en occuper ? Je l'ai fait dans mon TS sans réseau neuronal.

 
elibrarius:

C'est-à-dire l'uniformité des métiers réussis dans la zone de formation ?

Personnellement, j'évalue le résultat financier pour chaque année (actuellement 5 ans), en tenant compte du facteur de prélèvement et de récupération, ainsi que d'autres critères d'évaluation. Pour l'instant, je ne regarde même pas la classification, car il y a une stratégie de tendance, et même avec une classification correcte de 35%, il peut s'agir d'un bénéfice de fin d'année (autre période).

elibrarius:


C'est très bien comme ça, parce que l'ajustement est exactement pour l'apprentissage, jusqu'à 0% d'erreur.

La question est de savoir combien d'arbres sont utilisés pour cela, et essentiellement de quelle mémoire dispose le modèle. Un arbre, avec une profondeur de 6 fentes, ne peut pas faire un tel ajustement...


elibrarius:

Je suppose que cela doit se faire en régularisant/chargeant le modèle avec une réduction de la profondeur ou d'autres méthodes. Et s'arrêter par exemple à 20% d'erreur sur la partie formation.

J'utilise déjà les splits et la restriction d'exhaustivité, et oui, cela devrait être utilisé dans la formation.


elibrarius:

Je pense qu'il n'y a qu'une seule solution : après l'ajout de chaque version de nœud, faire passer toutes les données par la partie de l'arbre qui en résulte et analyser la ligne d'équilibre.

Nombre de versions d'un nœud = (nombre de caractéristiques * nombre de nœuds dans l'arbre * 3 (si divisé par quartiles)) * nombre d'arbres

Cela prendra beaucoup de temps à calculer, j'ai bien peur que ce soit encore plus long qu'en Nouvelle-Zélande.

Cela sera plus efficace, ce qui est plus important, et au final il y aura des modèles plus commercialisables.

En ce moment, je passe environ 15 jours pour le calcul - je reçois environ 800 feuilles uniques et en moyenne 8 d'entre elles, dont la moitié sont similaires, qui montrent des résultats stables sur des intervalles de temps (et la vérification prend encore pas mal de temps machine). C'est-à-dire qu'en ralentissant le calcul de 800/8 d'un facteur 100, on obtiendrait même un résultat comparable.

 
Alexander_K:

Assez, c'est assez.

C'est dans les cycles temporels que se trouve le Graal. La structure d'un cycle temporel fait partie de la structure d'un autre cycle.

Si vous travaillez avec le même tailles d'échantillon qui correspondent à différents des périodes strictement définies, alors ces structures imbriquées se trouvent dans le creux de votre main.

Le SN ne peut pas s'en occuper ? Je l'ai fait dans mon TS sans réseau neuronal.

Je n'en tire pas un graal, bien que je travaille juste avec les structures et la similarité des fractales, c'est-à-dire l'imbrication du temps dans différentes TF. Ce n'est pas assez, peut-être que je n'ai pas encore tout réalisé.

La NS est un outil, le cerveau humain peut ou non trouver une solution plus rapide et plus précise...

 
Aleksey Vyazmikin:

Personnellement, j'estime le résultat financier pour chaque année (actuellement 5 ans), en tenant compte du facteur de prélèvement et de récupération, et d'autres critères d'évaluation. Pour l'instant, je ne regarde même pas la classification, car il y a une stratégie de tendance, et même avec une classification correcte de 35%, il peut s'agir d'un bénéfice de fin d'année (autre période).

La question est de savoir combien d'arbres sont utilisés pour cela, et essentiellement quelle mémoire possède le modèle. Un arbre, avec une profondeur de 6 fentes, ne peut pas faire un tel ajustement...


La contrainte de division et d'exhaustivité est quelque chose que j'utilise déjà, et oui, elle devrait être utilisée dans la formation.


Elle sera plus efficace, ce qui est la chose la plus importante, et le résultat final sera des modèles plus commercialisables.

En ce moment, je passe environ 15 jours à calculer - j'obtiens environ 800 feuilles uniques et parmi celles-ci en moyenne 8, dont la moitié sont similaires, qui montrent des résultats stables sur des intervalles de temps (et la vérification prend encore pas mal de temps machine). C'est-à-dire qu'en ralentissant le calcul de 800/8 par un facteur 100, on obtiendra même un résultat comparable.

On dirait que vous faites un test de valvage avant.
Moi aussi, mais à la main. Je pense que c'est la meilleure façon d'évaluer les modèles.

Je n'ai pas encore trouvé de modèle stable dans le temps. En avançant ou en reculant d'une demi-année ou d'une année, les modèles commencent déjà à afficher des performances médiocres ou à se vider. Même nouvellement formés sur les mêmes caractéristiques et avec les mêmes paramètres de modèle. C'est-à-dire que l'importance des caractéristiques change également.

 
elibrarius:

On dirait que vous faites des essais de marche avant.
Moi aussi, mais manuellement. Je pense que c'est la meilleure façon d'évaluer les modèles.

Je n'ai pas encore trouvé de modèle stable dans le temps. En avançant ou en reculant d'une demi-année ou d'une année, les modèles commencent déjà à avoir des performances médiocres ou à s'épuiser. Même nouvellement formés sur les mêmes caractéristiques et avec les mêmes paramètres de modèle. C'est-à-dire que l'importance des caractéristiques change aussi.

C'est pourquoi il est nécessaire de tout prendre en compte lors de la formation, et d'effectuer des fractionnements, en tenant compte sinon de l'équilibre, du moins de la probabilité de l'exactitude de la classification. La partie douteuse devrait simplement passer soit à l'interdiction de commerce, soit à la probabilité de 99 %, puis elle peut être filtrée lors de l'application du modèle.

 
Aleksey Vyazmikin:

C'est pourquoi il est nécessaire de tenir compte de tout cela lors de la formation, et d'effectuer des fractionnements en tenant compte, sinon de la balance, du moins d'une estimation de la probabilité de l'exactitude de la classification. La partie douteuse doit être interdite de négociation ou marquée comme ayant une probabilité de 99 %, puis elle peut être filtrée lors de l'application du modèle.

Les divisions sont effectuées sur la base de la probabilité de la classification. Plus exactement, pas par probabilité, mais par erreur de classification. Parce que tout est connu dans l'exercice de formation, et nous avons une évaluation exacte, pas une probabilité.
Bien qu'il existe différentes fi ches de séparation, c'est-à-dire des mesures d'impureté (échantillonnage à gauche ou à droite).
Raison: