Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
Quelle était la période d'étude ? Les prix de clôture ont-ils été indiqués ? A partir de quelle TF ? Test de démonstration à partir du MQ ? Quelle est l'espérance mathématique pour 1 lot ?
S'il n'y avait pas les baisses de rendement sur six mois, ce serait parfait. Je les ai eus jusqu'à deux ans. Lors des tests avec 2015 valkingforward.
PS. Comment pouvez-vous tous travailler la nuit ? Le jour est le moment le plus efficace.
Quel est ce programme ?
Quel est ce programme ?
Le problème des nombres.
Les échantillons, chacun des n nombres, introduits dans les entrées X[0 ... n-1] dans le processus d'apprentissage, doivent être pré-entraînés (normalisés) de manière à ce qu'ils soient ÉGAUX les uns aux autres, toutes choses étant égales par ailleurs.
Dans le contexte où la valeur Y à la sortie d'un neurone apparié est la somme de X[0]*W[0] + X[1]*W[1] + X[2]*W[2] + ... + X[n-1]*W[n-1], cette équivalence ne peut être obtenue que d'une seule manière :
Les sommes des valeurs |X[0]| + |X[1]| + |X[2]| + ... |X[n-1]| dans tous les échantillons d'apprentissage doivent être égales.
Où W[n] est considéré comme une "autre condition égale" à X[n].
En d'autres termes, en tenant déjà compte de l'"autre condition égale", deux échantillons sont numériquement équivalents si leurs sommes X[0]^2 + X[1]^2 + X[2]^2 + ... + X[n-1]^2 sont les mêmes.
Par exemple :
Si certaines sections de prix par ses incréments X[n][k]=close[n][k]-ouverture[n][k], où n est le numéro de valeur de X et k le numéro de l'échantillon, sont utilisées comme un sac d'échantillons d'entraînement,
la somme des valeurs |X[0][k]| + |X[1][k]| + |X[2][k]| + ... |X[n-1][k]| représente la longueur de la courbe parcourue par le prix à l'intérieur d'un échantillon k donné.
En d'autres termes, les échantillons d'apprentissage k doivent être prénormalisés les uns par rapport aux autres, au sens physique de cet exemple, littéralement par la longueur du trajet de la courbe des prix.
Il est maintenant possible (et nécessaire) d'effectuer une autre normalisation pour eux, dans la plage pas moins / pas plus de -+1, en divisant tous les X[n][k] par max, où max est le maximum |X[n][k]| trouvé parmi tous les X[n][k].
Ensuite, dans le processus d'apprentissage, ces échantillons normalisés X[0 ... n-1][k] sont utilisés comme échantillons d'apprentissage, chacun ayant son propre score d[k], qui détermine la contribution de cet échantillon au résultat global de l'apprentissage.
Encore une fois :
Je suppose que l'apprentissage ne devrait pas se faire avec tous les échantillons k disponibles, mais seulement avec ceux qui ont un score d[k] "décent" (j'utilise un tel mot).
Cependant, pour obtenir un échantillon "digne de ce nom", nous devons toujours disposer de tous les échantillons k avec leurs scores d[k].
Mais c'est un autre sujet...
J'ai décrit la théorie : le but de NS est de filtrer les TS brutes qui montrent quelque chose, et non pas de chercher le graal.
Et non pas de chercher le graal. Et j'ai décrit l'approche : rechercher manuellement tout TS qui montre au moins quelques résultats. Et le filtrer avec NS. Voici le TS original.
Inapte à la négociation, mais montrant des signes de vie .
Et voici la même, seulement filtrée par Python NS : LSTM-key.
Les échantillons, chacun de n nombres, introduits dans les entrées X[0 ... n-1] pendant l'apprentissage, doivent être pré-entraînés (normalisés) de manière à ce qu'ils soient ÉGAUX les uns aux autres, toutes choses étant égales par ailleurs.
Dans le contexte où la valeur Y à la sortie d'un neurone apparié est la somme de X[0]*W[0] + X[1]*W[1] + X[2]*W[2] + ... + X[n-1]*W[n-1], cette équivalence ne peut être obtenue que d'une seule manière :
Les sommes des valeurs |X[0]| + |X[1]| + |X[2]| + ... |X[n-1]| doivent être les mêmes pour tous les échantillons d'apprentissage.
Où W[n] est considéré comme une "autre condition égale" égale à X[n].
En d'autres termes, en tenant déjà compte de l'"autre condition égale", deux échantillons sont numériquement équivalents si leurs sommes X[0]^2 + X[1]^2 + X[2]^2 + ... + X[n-1]^2 sont les mêmes.
Par exemple :
Si certaines sections du prix par ses incréments X[n][k]=clôture[n][k]-ouverture[n][k], où n est le numéro de valeur de X et k le numéro de l'échantillon, sont utilisées comme un ensemble d'échantillons de formation,
la somme des valeurs |X[0][k]| + |X[1][k]| + |X[2][k]| + ... |X[n-1][k]| signifie la longueur du chemin de la courbe parcourue par le prix dans un échantillon k donné.
En d'autres termes, les échantillons d'apprentissage k doivent être prénormalisés les uns par rapport aux autres, au sens physique de cet exemple, littéralement par la longueur du chemin parcouru par la courbe des prix.
Il est maintenant possible (et nécessaire) d'effectuer une autre normalisation pour eux, sous la fourchette pas moins / pas plus que -+1, en divisant tous les X[n][k] par max, où max est le maximum |X[n][k]| trouvé parmi tous les X[n][k].
Ensuite, dans le processus d'apprentissage, ces échantillons normalisés X[0 ... n-1][k] sont utilisés comme échantillons d'apprentissage, chacun ayant son propre score d[k], qui détermine la contribution de cet échantillon au résultat global de l'apprentissage.
Encore une fois :
Je pense que l'apprentissage ne devrait pas être effectué avec tous les échantillons disponibles k, mais seulement avec ceux qui ont un score d[k] "décent" (j'utilise un tel mot).
Cependant, pour créer un échantillon "valable", nous avons toujours besoin de tous les échantillons k avec leurs scores d[k].
Mais c'est un autre sujet...
Vous écrivez de manière intéressante C'est là que la dissonance avec la théorie des nombres problèmes intervient :
Après tout, attribuer une "force" à un modèle équivaut à trouver un graal, grosso modo. Il n'y a pas besoin de NS, il suffit de prendre les motifs avec l'indice de puissance (numérique) le plus élevé, de les combiner avec un autre motif similaire et d'ouvrir une position, car selon cette logique, la probabilité de gagner est supposée être plus élevée.
C'est la raison pour laquelle je voulais m'éloigner des chiffres, ou trouver une méthode qui, d'une manière ou d'une autre, donnerait objectivement (aussi objectivement que possible) une certaine puissance à un motif qui, dans un certain contexte (mélange avec d'autres motifs), donnerait une forte probabilité de réussite. Il y aensuite une notion de prétraitement.