L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 1353

 
Yuriy Asaulenko:

Un marché BP a été alimenté à l'entrée du LPF. La même BP est envoyée à l'entrée NS. Oui, c'est bien cela, le réseau a décrit le fonctionnement du filtre passe-bas et a fait une prédiction de sa sortie à un intervalle donné.

En ce qui concerne le boosting - non, je ne l'ai pas essayé.

Si vous ne posez pas trop de problèmes, je vais essayer.

 
Aleksey Vyazmikin:

Postez un échantillon, si vous le voulez bien, je vais l'essayer.

Je ne comprends pas, quel échantillon ? La BP elle-même ? Vous pouvez le faire. Mais un échantillon de BP, c'est aléatoire.

 
Yuriy Asaulenko:

Je ne comprends pas, quel genre d'échantillon ? La BP elle-même ? Vous pouvez le faire. Mais l'échantillon de BP, c'est aléatoire.

Vous ne pouvez pas l'écrire dans un fichier ? Vous devez utiliser Python, qui vous permet de décharger dans un fichier des échantillons fractionnés, préparés pour l'entraînement, n'est-ce pas ?

 
Aleksey Vyazmikin:

Vous ne pouvez pas l'écrire dans un fichier ? Vous le faites probablement en Python, où vous pouvez décharger dans un fichier des échantillons fractionnés préparés pour la formation, n'est-ce pas ?

Revoyons tout ça.

1. La BP entière est 55k OHLSV. On en extrait aléatoirement 5 à 6k lignes de longueur 20 (Close only). Il ira aux entrées de la NS pour la formation.

2. L'échantillonnage selon la clause 1 est passé à travers un LPF. On obtient alors une séquence de longueur 20+Tr. Où Tp est le temps de prédiction. La dernière valeur de la sortie du filtre passe-bas est la valeur cible.

3. Alimentation des NS 1 et 2 - formation.

Ou peut-être que je ne comprends pas quelque chose(.

PS Essayer de sauvegarder les données. Les formats de fichier .mat ou .spydata fonctionneront-ils ? L'exportation vers le CSV n'a pas eu lieu, il faut chercher.

 
Yuriy Asaulenko:

Revoyons tout ça.

1. La BP entière est 55k OHLSV. On en extrait aléatoirement 5 à 6k lignes de longueur 20 (Close only). Il ira aux entrées de la NS pour la formation.

2. L'échantillonnage selon la clause 1 est passé à travers un LPF. On obtient alors une séquence de longueur 20+Tr. Où Tp est le temps de prédiction. La dernière valeur de la sortie du filtre passe-bas est la valeur cible.

3. Alimentation des NS 1 et 2 - formation.

Ou peut-être que je ne comprends pas quelque chose(.

PS Essayer de sauvegarder les données. Les formats de fichier .mat ou .spydata fonctionneront-ils ? L'exportation en CSV n'a pas été rencontrée, il faut la chercher.

Ok, ne vous donnez pas la peine.

Je ne sais pas comment lire ces formats.

Mais, je ne suis pas tout à fait sûr de ce que sont les prédicteurs ...

 
Aleksey Vyazmikin:

OK, pas la peine.

Je ne sais pas avec quoi lire ces formats.

Mais, je ne suis pas tout à fait sûr de ce que les prédicteurs sont ...

Il n'y a pas de prédicteurs ici, une série de valeurs de clôture mises à l'échelle - [Close[i-0], Close[i-1], Close[i-2],...,Close[i-19]] - est directement envoyée à l'entrée NS.

Comme objectif - une valeur de sortie VLF [i + Tp], où Tp est le temps de prévision en minutes. Le montant total de ces cordes est de 5-6 mille.

ZZY De manière générale, il est intéressant de voir les résultats en forêt. Si vous le faites, je ferai un CSV dans un avenir proche.

Eh bien, un autre tableau de prédiction pour terminer. Prévision FNF (approximativement égale à EMA(8)) pendant 5 min. Je le montre car il est tout à fait possible de travailler avec les prévisions.

.

 
Alexander_K:

Eh bien, ce citoyen a dit beaucoup et vaguement... L'objet principal de son message était que rien ne peut m'aider : ni Erlang, ni Bachelier, rien du tout, sauf les rangs qu'il a donnés.

Rien ne fonctionne sur mes modèles - c'est pourquoi je suis venu ici, peut-être le réseau neuronal verra-t-il quelque chose.

Cherchez sur Wikipedia d'autres noms de famille - il y en a beaucoup. Plus vous connaissez de noms de famille, plus vous aurez l'air intelligent. Quelque chose que Kalomorov a oublié de mentionner à nouveau.

 
Yuriy Asaulenko:

Il n'y a pas de prédicteurs ici, une série de valeurs de clôture mises à l'échelle - [Close[i-0], Close[i-1], Close[i-2],...,Close[i-19]] - est directement envoyée à l'entrée NS.

Comme cible - une valeur de sortie VLF [i + Tp], où Tp est le temps de prédiction en minutes. Le montant total de ces cordes est de 5-6 mille.

ZZY De manière générale, il est intéressant de voir les résultats en forêt. Si vous le faites, je ferai un CSV sous peu.

Si vous faites l'échantillonnage, je le ferai. Il est vrai que ce ne serait pas une classification, mais quand même, ce serait intéressant.

 
Aleksey Vyazmikin:

Si tu fais un échantillon, je te ferai faire un tour. Ce n'est pas une classification, cependant, mais c'est intéressant.

OK. Mais ce n'est pas urgent.

 
Aleksey Vyazmikin:

Si tu fais un échantillon, je te ferai faire un tour. Ce n'est pas une classification, mais c'est intéressant.

Voici les archives. Voir la pièce jointe.

Learn.csv - entrées. Premier chiffre de chaque ligne - liaison historique, il doit être supprimé.

Cellule.scv - cible.

Voici le graphique que nous devrions obtenir après une formation sur ces données.

Le filtre est approximativement égal à EMA(16) et la prévision - 5 min.

Je ferai le test plus tard, si nécessaire.

Dossiers :
TS1.zip  961 kb
Raison: