L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 1588

 
Aleksey Mavrin:

Y a-t-il eu des tentatives d'application des méthodes statistiques à l'analyse des graphiques, des chandeliers et d'autres éléments de niveau supérieur ?

Je n'utilise pas les retours.

Même s'ils sont utilisés comme données primaires (représentation graphique), des prédicteurs supplémentaires sont nécessaires, comprimant les informations pour créer des proportions et des vecteurs.

 
sibirqk:

À mon avis, il existe des fluctuations périodiques de la température de la planète dues à des causes naturelles. Au cours des cent dernières années, le réchauffement naturel a commencé et des facteurs anthropiques s'y sont superposés.

Si on le prend à part, en résumé :

1. L'effet de serre n'est qu'un des nombreux facteurs qui influencent la température moyenne de la Terre.

2. Pour tenir compte de l'influence anthropique, le pourcentage de CO2 anthropique dans l'atmosphère est important. Actuellement, il est de 1 %, c'est-à-dire très faible. Une part beaucoup plus importante est due aux incendies de forêt et aux brûlures d'herbe. De plus, la séquestration du CO2, la déforestation, le réduit.

3. l'équilibre entre le CO2 entrant dans l'atmosphère et sa séquestration est presque comme un équilibre entre l'offre et la demande sur le marché des changes, de nombreux canaux différents avec des temps d'investissement différents disposition. Ce n'est pas vraiment facile à simuler. Mais il existe des observations expérimentales.

À la fin du 20e siècle, des machines telles que les spectromètres de masse à accélération AMS sont apparues, principalement pour les besoins des archéologues. Leur principale caractéristique est que les échantillons pour la détermination des rapports isotopiques peuvent être très petits - des milligrammes. Ils ont été rapidement adaptés à d'autres fins technologiques, médicales et notamment de recherche climatique. Ces machines mesurent très précisément le rapport C12/C14. Dans la genèse naturelle, il est déterminé par le fond cosmique et le rapport est assez stable. Mais lorsque l'ère des essais nucléaires a commencé, la concentration de C14 a augmenté de façon spectaculaire, il a été dispersé dans le monde entier et absorbé par les arbres. Les lieux et les dates des tests sont connus, les anneaux annuels des arbres sont facilement comptés, vous pouvez déterminer exactement comment la concentration de C14 évoluait à l'endroit où l'arbre poussait. En effectuant de telles mesures dans le monde entier, il a été possible de suivre la vitesse de migration du CO2 dans l'atmosphère. Il s'est avéré que, très rapidement, en l'espace de six mois à un an, la concentration s'est stabilisée dans le monde entier. Et, plus important encore, il a fallu moins de dix ans pour que la concentration retombe au niveau de fond. Autrement dit, tout le CO2 atmosphérique est en constante évolution. Cela signifie que la concentration actuelle est un équilibre d'émissions/absorptions dans lequel le rôle du CO2 anthropique provenant de la combustion du charbon, du pétrole et du gaz n'est pas aussi important qu'il est déclaré dans les médias.

C'est-à-dire, à mon avis :

a) La quantité de CO2 d'origine humaine n'augmente pas de manière significative sa concentration naturelle, comme on le prétend.

b) Le CO2 n'est pas la seule cause de l'effet de serre.

c) L'effet de serre est loin d'être la seule cause du changement de température sur Terre.


Pour autant que je sache, la vapeur d'eau affecte l'effet de serre sensiblement plus que le CO2 et, de toute façon, l'influence humaine sur le climat est exagérée. Mais ce n'est pas ce que je voulais dire quand je parlais de la substance de l'article :

1) Un système formellement déterministe mais plutôt complexe ne peut être étudié sans les méthodes d'un matstat.

2) Les réponses données par un matstat comportent toujours une part d'incertitude. Il est impossible de l'éviter complètement, car c'est la nature même du sujet de cette science.

3) La tentation est toujours grande d'utiliser cette incertitude pour obtenir la "bonne" réponse.

4) Pour éviter d'adapter la réponse au résultat souhaité, il faut toujours évaluer la signification statistique des conclusions.

 
Aleksey Nikolayev:

Dans notre cas, il n'est possible de travailler utilement qu'avec la non-stationnarité, qui d'une manière ou d'une autre se réduit à la stationnarité. Stationnarité fragmentaire, modèles autorégressifs, hmm, etc.

La raison principale est qu'une seule réalisation du processus est toujours connue. Par exemple, si nous prenons la reconnaissance vocale, il existe un mot quelconque que nous pouvons dire autant de fois que nous le souhaitons. Les cotations pour un instrument concret dans un intervalle de temps concret sont dans une seule variante. D'ailleurs, c'est probablement la raison pour laquelle de nombreuses personnes ici ne distinguent pas le processus aléatoire de ses réalisations.

Très vrai, c'est pourquoi le MO ne travaillera jamais avec de telles données, elles doivent être retraitées en une série qui se répète et c'est tout à fait réaliste.

Pourquoi n'en discute-t-on pas concrètement ? parce que c'est la question numéro 1.
 
mytarmailS:
Pourquoi on n'en parle presque jamais ? ... Parce que c'est la question numéro un.
Fumez mon dernier lien.
 
Aleksey Mavrin:

Y a-t-il eu des tentatives d'application des méthodes statistiques à l'analyse des graphiques, des chandeliers et d'autres éléments de niveau supérieur ?

bien sûr, par exemplehttps://journals.plos.org/plosone/article?id=10.1371/journal.pone.0212320

Mais vous savez quel sera le résultat si vous les utilisez pour de vrai...

Forecasting stock prices with a feature fusion LSTM-CNN model using different representations of the same data
Forecasting stock prices with a feature fusion LSTM-CNN model using different representations of the same data
  • journals.plos.org
Forecasting stock prices plays an important role in setting a trading strategy or determining the appropriate timing for buying or selling a stock. We propose a model, called the feature fusion long short-term memory-convolutional neural network (LSTM-CNN) model, that combines features learned from different representations of the same data...
 

J'ai été impliqué dans la modélisation mathématique (MM) et j'ai également programmé des problèmes d'optimisation en utilisant la méthode de programmation linéaire simplex.

Et quand l'apprentissage automatique (ML) a commencé à se répandre, je pensais que c'était la même chose que le MM. Mais ce n'est pas tout à fait la même chose.


Pour le forex, nous devons tout d'abord créer un modèle de stratégie de trading (TS) prenant en compte de nombreux facteurs.

Le robot lui-même n'est pas capable de créer le modèle TS dès le départ. C'est parce qu'un programme ne sera pas capable de créer par lui-même l'idée de limitation, c'est-à-dire le facteur qui influence le modèle ou le TS.

Le robot ne sera capable de trouver que les limites de cette contrainte.

Si vous avez créé un mauvais modèle avec de mauvaises contraintes, aucune optimisation ne vous donnera le résultat escompté.

Vous devez savoir quels sont les facteurs qui affectent le TS, et vous ne pouvez pas vous passer du facteur humain ici.


Laissez-moi vous donner un exemple d'un seul de ces facteurs que j'utilise dans mon robot de trading. Laissez-moi vous donner un petit "secret" :)

Ce facteur est bien connu de beaucoup de gens: la vitesse de variation des prix. Cependant, dans mes calculs, je ne détermine pas seulement la vitesse, mais aussi l'accélération et la décélération de la vitesse par inertie.

La vitesse est déterminée par intervalles d'une seconde. Non seulement la fréquence des tics entrants est prise en compte, mais aussi le nombre de points (longueur) entre les tics.

Pour quoi ou quand ce facteur est utilisé.

Il est utilisé lors de l'ouverture d'une commande. En introduisant la limitation de la vitesse, nous empêchons l'ouverture de l'ordre pendant les fortes hausses des prix.

Et il empêche l'ouverture d'une commande tant que la vitesse n'a pas diminué jusqu'à une certaine valeur, et encore lorsqu'un certain temps ne s'est pas écoulé.

Je l'utilise également pour déterminer l'angle de la tendance. Plus la vitesse est élevée, plus l'angle de tendance est élevé.

 

Collègues à tous bonjour,

Je suis désolé de poser une question aussi stupide, mais l'événement OnBookEvent fonctionne-t-il dans le testeur MT5 ? J'essaie de le tester, mais il ne passe pas en boucle pour une raison quelconque et j'ai l'impression qu'il est ignoré. Mais en théorie, les cotations changent lors de la révision du marché. HMM...

 
Aleksey Nikolayev:

Dans notre cas, nous ne pouvons travailler de manière significative qu'avec la non-stationnarité, qui d'une manière ou d'une autre se réduit à la stationnarité. Stationnarité fragmentaire, modèles autorégressifs, hmm, etc.

La raison principale est qu'une seule réalisation du processus est toujours connue. Par exemple, si nous prenons la reconnaissance vocale, il y a n'importe quel mot que nous pouvons dire autant de fois que nous le voulons. Les cotations pour un instrument spécifique dans un intervalle de temps spécifique sont dans une seule réalisation. D'ailleurs, c'est probablement la raison pour laquelle de nombreuses personnes ici ne font pas la distinction entre un processus aléatoire et ses réalisations.

Il est amusant de voir comment les gens se moquent de la bonne vieille (non) stationnarité statistique, impliquant tout sauf une relative persistance dans le temps de la distribution. Il est probable qu'un "gourou" de l'économétrie du passé ait fait une telle remarque une fois, probablement à propos d'autre chose et dans un contexte théorique étroit, et que le thème de la non-stationnarité comme principal obstacle à la création du "graal" soit devenu viral. Il est évident que le prix cumulé statistiquement non stationnaire dans sa forme pure n'intéresse pas grand monde, et même si les rendements étaient stationnaires (sans changement de distribution), cela ne donnerait pas grand-chose pour le commerce de toute façon (les options disparaîtraient en tant qu'instrument seulement).

Il est probablement utile de définir et/ou de préciser le terme "non-stationnarité dans le Forex", afin que les personnes familières avec les statistiques classiques puissent comprendre de quoi nous parlons.

Sur les marchés, par nature, il n'y a pas de non-stationnarité statistique, mais une non-stationnarité de "jeu" avec des "perturbations" (facteurs fondamentaux), c'est-à-dire que la "foule" prédit le prix entre les "perturbations", chaque participant essaie de prédire le reste de la foule en moyenne, et les "fondamentaux" (politique, économie, décalages de ragtime...) alors tout s'écroule.

Tout le problème est de savoir comment détecter le "changement de marché" le plus rapidement possible et en même temps "former" le système sur les données "du marché actuel", parce que l'apprentissage à partir des marchés passés ne fera qu'embrouiller le système, les anciens marchés n'existent plus, ce n'est pas seulement insensé et nuisible, mais s'entraîner sur de très petites fenêtres de données n'est pas cool, cela n'a de sens que pour les utilisateurs soft, et comment les gens ordinaires travaillant avec 15M et regarder - un mystère....

 
Andrei:

Il est amusant de voir comment les gens se moquent de la bonne vieille (in)stationnarité statistique en impliquant autre chose que la persistance relative de la distribution dans le temps.

......

Tout le problème est de savoir comment détecter un "changement de marché" aussi rapidement que possible et en même temps "entraîner" le système avec des données "du marché actuel", parce que l'apprentissage à partir des marchés passés ne fera qu'embrouiller le système, les anciens marchés n'existent plus, ce n'est pas seulement insensé et nuisible, mais s'entraîner sur de très petites fenêtres de données n'est pas cool, cela n'a de sens que pour les utilisateurs de logiciels, et comment les gens ordinaires travaillent avec 15M et une horloge - un mystère...

Pas la "persistance relative de la distribution", mais l'indépendance du MO, de la variance et de la fonction de distribution par rapport au temps.

Et comment "détecter les changements du marché" ?

Vous avez détecté un "changement de marché" - vous avez besoin d'un échantillon suffisamment long pour entraîner le système sur les nouvelles données. Et si, avant ou lorsque l'échantillon est suffisamment long, un "changement de marché" se produit à nouveau, que faire ?

 
Dmitry:

Pas de "persistance relative de la distribution", mais indépendance du MO, de la variance et de la fonction de distribution dans le temps.

Non, c'est la dépendance, et c'est une dépendance constante).

Dmitriy:

Et comment "détecter les changements du marché" ?

Vous avez détecté un "changement de marché". Pour entraîner le système sur de nouvelles données, vous avez besoin d'un échantillon suffisamment long. Et si, avant ou lorsque l'échantillon est suffisamment long, un "changement de marché" se produit à nouveau, que faites-vous ?

Vous pouvez essayer de détecter avec MO

Dimitri:

Vous avez détecté un "changement de marché" - vous avez besoin d'un échantillon suffisamment long pour entraîner le système sur les nouvelles données. Et si avant ou lorsque l'échantillon atteint une longueur suffisante, le "marché change" à nouveau - que faire ?

C'est la bonne question, vous n'avez rien à faire, attendez qu'il y ait un échantillon légèrement significatif sur le plan statistique, toute action dans cette situation sera de la chance, s'il n'y a pas d'initié.