L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 3186

 
mytarmailS #:

Ce ne sont que des chiffres et des conversions. Comment ça, ça n'a rien à voir avec le WRC ? Ce ne sont que des chiffres.....

Demandez-vous quelle caractéristique utile est conservée/perdue. J'ai répondu à cette question avec ma conversion.

Et qu'est-ce que le débit binaire ?

La largeur du flux d'informations (dans le contexte d'un réseau).

 
fxsaber #:

J'ai commencé à redimensionner (dans les limites du scalpage) le genou minimal du ZZ et à observer la somme des genoux.

Quelle est la fourchette raisonnable pour le scalping ? De... à ?

j'ai sur des barres de 0.00200 pour l'EURUSD, quelque chose commence à se gagner. Mais je crains qu'il y ait l'ajustement que vous avez décrit ci-dessus. C'est à dire les meilleures variantes sur OOS, qui sont gâchées simplement en décalant la fenêtre d'entrainement de 2-10% (c'est à dire que 2-10% des lignes sont différentes, en conséquence les arbres sont construits différemment et OOS est complètement différent, jusqu'à non rentable).

 
fxsaber #:

ZЫ En général, s'il y a un intérêt à essayer de trouver des différences entre les deux lignes, on peut les fournir.

Je suis plutôt intéressé par un véritable ensemble de données d'entraînement pour vos données (ajustement et cible). Pour voir combien je pourrais gagner sur le scalping avec mon approche.

 
fxsaber #:

Répondez vous-même à la question de savoir quelle caractéristique utile est conservée/perdue. En me convertissant, j'ai répondu à cette question.

Si je comprends bien votre transformation

vous prenez les incréments, puis vous choisissez au hasard l'indice de l'incrément et vous le laissez tel quel ou vous l'inversez (x/-1).


Prenons une série abstraite avec une structure évidente.

Appliquez votre transformation.

Aucune structure n'est préservée, c'est juste du hasard à partir du hasard...

Je ne considérerais pas du tout cela comme une simulation...



Voici le code.

par(mar=c(2,2,2,2),mfrow=c(3,2))

r <- rep( c(1:10,10:1) ,3)
r |> plot(t="l",main = "начальный ряд с какой то закономерностью")

rd <- c(0,diff(r))

for(i in 1:5) {
  sa <- sample(1:length(rd),size = length(rd)/2)
  rd[sa] <- rd[sa]/-1
  rd |> cumsum() |> plot(t="l", main = "ваше преобразование")
}
 
Forester #:

Je suis plutôt intéressé par un véritable ensemble de données d'entraînement pour vos données (fic et cible). Pour voir combien je pourrais gagner en scalping avec mon approche.

Choisissez un courtier pour les données historiques en fonction du profit potentiel le plus élevé. Par exemple, EURUSD_Broker1 a un profit potentiel plus élevé que EURUSD_Broker2. Prenez donc EURUSD_Broker1.

Les cours principaux et les cours croisés peuvent être scalpés. Mais pas tous. Il suffit de s'entraîner sur chacun d'entre eux et de voir les résultats. C'est ce que je fais, en gros.

 
mytarmailS #:

Si je comprends bien votre conversion

vous prenez les incréments, puis vous choisissez au hasard l'indice de l'incrément et vous le laissez tel quel ou vous l'inversez (x/-1).

Vous avez parfaitement compris ma transformation.

Prenons une série abstraite avec une structure évidente (régularité).

La transformation est si simple que même sans graphique, il est clair que vous pouvez obtenir n'importe quoi jusqu'à un prix monotone croissant.
 
fxsaber #:

Vous avez parfaitement compris ma transformation.

La transformation est si simple que même sans graphiques, il est clair que vous pouvez obtenir n'importe quoi jusqu'à un prix croissant de façon monotone.

Dans ce cas, on ne peut pas considérer qu'il s'agit d'une simulation,

et vous devez réaliser que vous avez détruit toutes les tendances qui existaient,

ainsi que la structure même de la DEM.

 
mytarmailS #:

Dans ce cas, on ne peut pas parler de simulation,

et il faut se rendre compte que l'on est allé à l'encontre de toutes les tendances existantes,

ainsi que la structure même de la DEM.

Je suis sûr que j'ai détruit beaucoup moins que les autres solutions. Mais c'était suffisant.

En ce qui concerne la structure, cette méthode est basée sur la loi des grands nombres, sur laquelle la structure est basée. C'est exactement pour les cas où il y a des dizaines de millions de données originales.


Je ne veux pas me vanter, mais je doute fort qu'il existe un tel travail avec des tics et des invariants aussi puissants : temps, dispersion, incrément absolu (en conséquence - queues grasses, non-stationnarité, corrélations, etc.) En d'autres termes, il existe une centaine de millions d'invariants pour les données d'entrée. Il n'y a pas de comparaison possible avec les "100" caractéristiques des modèles.


Malgré ces caractéristiques uniques de la randomisation, un test a été immédiatement trouvé qui répond sans équivoque à la question de savoir à quoi nous avons affaire : la randomisation ou la réalité.


Il n'y a rien à discuter ou à débattre ici. Ce qui est démontré n'est pas seulement une différence entre SB et la réalité, mais une différence subtile entre la série originale et la randomisation. La valeur est dans le contre-exemple.

 
fxsaber #:

On dirait que j'ai une génération aléatoire intéressante.


Bonne idée ! Il ne me reste plus qu'à trouver comment l'utiliser 😆 Essentiellement, il s'agit d'un prix BP avec les mêmes caractéristiques de session, la même volatilité que le vrai prix, mais stationnaire. Avec une espérance constante et une variance apparemment constante. Et les queues sont gaussiennes. En même temps, le profit moyen est égal à zéro moins l'écart total.

 
fxsaber #:

Je suis sûr que j'ai détruit beaucoup moins que les autres solutions. Mais c'était suffisant.

Je pense que vous surestimez cette méthode, peut-être que quelque chose m'échappe.