Que mettre à l'entrée du réseau neuronal ? Vos idées... - page 52

 
Aleksandr Slavskii #:

Si vous regardez l'image, oui, c'est chaud et doux, mais dans le code, c'est très bien.

Les parenthèses de l'image ne sont pas correctes. Cela devrait être comme ceci.


Oui, merci, j'ai des problèmes avec les crochets.
 

Ola ke tal. Je me suis dit que j'allais faire part de mes idées.

Mon dernier modèle consiste à collecter les prix normalisés de 10 symboles et à former ainsi un réseau de récurrence. En entrée, 20 barres du mois, de la semaine et du jour.

C'est l'image que j'obtiens. La différence par rapport à l'entraînement séparé est que le profit total est 3 fois moins élevé et le drawdown.... wow, le drawdown sur la période de contrôle est d'à peine 1%.

Il me semble que cela résout le problème de la rareté des données.


 
Evgeniy Scherbina #:

Ola ke tal. Je me suis dit que je devais faire part de mes idées.

Mon dernier modèle consiste à collecter les prix normalisés de 10 symboles et à former ainsi un réseau de récurrence. Il y a 20 barres du mois, de la semaine et du jour par entrée.

C'est l'image que j'obtiens. La différence par rapport à l'entraînement séparé est que le profit total est 3 fois moins élevé et le drawdown.... wow, le drawdown sur la période de contrôle est d'à peine 1%.

Il me semble que cela résout le problème de la rareté des données.


Je pense que vous avez un très haut niveau de connaissance du sujet, mais je crains de ne rien comprendre.

Je crains de ne rien comprendre. Dites-moi ce qu'est cette beauté sur le graphique : s'agit-il de Python ? d'une architecture LSTM ?

Est-il possible d'afficher une telle chose sur MT5 ?


prix normalisés de 10 symboles





Ici aussi, comment les prix ont été normalisés. Qu'est-ce que "ante" En général, tout ce qui n'est pas un secret commercial, merci de le partager)
 
Ivan Butko #:

Je pense que vous avez une très grande maîtrise du sujet.

Je crains de ne rien comprendre. Dites-moi ce qu'est cette beauté sur le graphique : s'agit-il de Python ? d'une architecture LSTM ?

Est-il possible d'afficher une telle chose sur MT5 ?






Ici aussi, comment les prix sont-ils normalisés ? Qu'est-ce que "ante" ? En général, tout ce qui n'est pas un secret commercial, s'il vous plaît, partagez-le).

Bien sûr, c'est du python. En µl5 pour sélectionner des données sur une condition, il faut faire une énumération et tout ça iff iff iff iff iff iff. Et en python, une seule ligne suffit pour sélectionner les données selon n'importe quelle condition. Je ne parle pas de la rapidité du travail. C'est trop pratique. Mcl5 est nécessaire pour ouvrir des transactions avec un réseau tout fait.

La normalisation est la plus courante. Moins la moyenne, divisée par l'écart-type. Le secret de fabrication ici est la période de normalisation, il est important de l'aborder de manière à ce que les prix soient autour de zéro pendant 10 ans. Mais pas de manière à ce que les prix soient inférieurs à zéro au début de la période de 10 ans et supérieurs à zéro à la fin. Ce n'est pas ainsi que l'on peut comparer...

Deux périodes de test - ante et test. La période ante avant la formation est de 6 mois. C'est très pratique. L'ante est toujours là. Et le test, c'est le futur, il n'existe pas. C'est-à-dire qu'il existe, mais seulement dans le passé. Et dans le futur, il n'existe pas. C'est-à-dire qu'il n'existe pas.

 
Evgeniy Scherbina #:

Qu'est-ce qui est le plus important selon vous : l'architecture ou les données d'entrée ?

 
Ivan Butko #:

Qu'est-ce qui est le plus important selon vous : l'architecture ou les données d'entrée ?

Je pense que ce sont les données d'entrée. Ici, j'essaie 6 caractères, pas 10. Et je ne passe pas la période de contrôle août-décembre 2023. Séparément, c'est difficile aussi. Et un passage à 10 caractères peut être légitimement choisi sur la base des résultats de l'entraînement. Le réseau est toujours récurrent en 1 couche de 32 états, le lien complet n'est utilisé qu'une seule fois.

 

Quelques résumés :

Je ne parle pas au nom de tout le MO, les conclusions sont purement dans le contexte de ce fil, à savoir des années de tests et de sélection de réseaux neuronaux simples, le plus souvent des MLP.

Donc :
  • plus il y a d'entrées, plus c'est mauvais
  • plus il y a de neurones, pire c'est.
  • plus il y a de couches, pire c'est.
  • plus l'architecture est complexe, pire c'est


Tout au long de la branche et au-delà, les meilleurs résultats ont été obtenus avec un simple perceptron à une ou deux entrées (en fonction des spécificités).

Tout ce que j'ai trouvé "fonctionnant" sous la forme d'ensembles s'est avéré être une répétition sous la pire forme des résultats des conceptions les plus simples.




Je me suis rendu compte que je venais de trouver un modèle algorithmique alors que j'examinais diverses données d'entrée, ce qui répondait en fait partiellement à la question de ma branche "Que donner en entrée au réseau neuronal ?". Mais le réseau neuronal s'est avéré inutile. Ni MLP, ni RNN, ni LSTM, ni BiLSTM, ni CNN, ni Q-learning, ni tout cela combiné et mélangé.

En conséquence, le graphique est le plus souvent décrit par un seul chiffre. Et ce qu'il faut faire de ce nombre, qui exprime la situation/modèle/figure/événement sur le graphique, relève d'un algorithme simple avec un seuil d'ouverture (plus de 0,6 - achat et vice-versa). Dans les deux cas, le nombre prend des valeurs comprises entre -1 et 1.

Comme données d'entrée, parmi toutes celles testées (que j'ai pu mettre en œuvre), les deux peuvent fonctionner le plus longtemps, à la fois dans le passé et dans le futur : j'ai toujours optimisé pour une année : 2021-2022 sur H1 EURUSD, et j'ai ensuite testé les ensembles sur l'ensemble de l'historique.

Dès que le graphique montre quelques signes de vie sur le backtest de 20 ans, j'ai optimisé l'ensemble pour une période plus longue - 2012-2021, 9 ans.


Dans l'une de ces expériences, j'ai optimisé 2 entrées sur 3 neurones. En conséquence, l'un des ensembles supérieurs a montré l'image suivante



* ******* **************



UPD Voici un autre ensemble, même chose : milieu - optimisation, résultats - sur les côtés. Presque la même chose, juste plus uniforme






**********************

Les trades ne sont pas des pips ou des scalps. Plutôt intraday.










Ainsi, mes conclusions subjectives pour le moment :

  • Le réseau neuronal n'est applicable qu'aux modèles stationnaires et statiques qui n'ont rien à voir avec la fixation des prix.
  • Le réseau neuronal mémorise la trajectoire. Rien de plus.
  • Il y a des régularités. Elles sont simples. Plus simples que ce que nous compliquons frénétiquement.
  • Les modèles sont dans la géométrie. Les chandeliers ne fonctionnent que s'il n'y a pas de spread ni de commission.
  • LES OSCILLATEURS SONT DIABOLIQUES ! Ils effacent complètement les informations sur le marché, les brouillent, les salissent et les rendent franchement bruyantes. De plus, le bruit ici est dans le contexte - réel !
    Je n'ai jamais vu de ma vie de pires résultats qu'avec des indicateurs de lissage . C'est comme une personne voyante qui devient aveugle. Tout à l'heure, il pouvait voir une silhouette claire, et maintenant il ne peut pas comprendre ce qu'il y a - une tache dans ses yeux. Aucune information.



Mon avis, tel que je le vois
 
Ivan Butko #:
Le réseau neuronal n'est applicable qu'aux modèles stationnaires et statiques qui n'ont rien à voir avec la tarification.

Quel type de prétraitement, de normalisation faites-vous ? Avez-vous essayé la normalisation ?


I van Butko #: Le réseau neuronal se souvient du chemin. Pas plus que cela.

Essayez les transformateurs, on dit qu'ils sont bons pour vous....



I van Butko #: Les oscillateurs sont diaboliques !

Eh bien, tout n'est pas aussi clair. C'est juste que le NS est pratique pour travailler avec des fonctions continues, mais nous avons besoin d'une architecture qui fonctionne avec des fonctions par morceaux/intervalles, alors le NS sera capable de prendre les plages d'oscillateurs comme des informations significatives.

 
Aleksey Vyazmikin #:

Quel type de prétraitement, de normalisation faites-vous ? Avez-vous essayé la normalisation ?

Essayez les transformateurs, il paraît qu'ils sont bons pour vous....


Eh bien, tout n'est pas si clair. C'est juste que NS est pratique pour travailler avec des fonctions continues, mais nous avons besoin d'une architecture qui fonctionne avec des fonctions par morceaux/intervalles, alors NS sera capable de prendre les gammes d'oscillateurs comme des informations significatives.



1. et quand comment : si la fenêtre de données, certains incréments, j'apporte la plage -1...1. je n'ai pas entendu parler de la normalisation 2.

Accepté, merci 3. Je suis d'accord, je n'ai pas la preuve complète du contraire.


C'est pourquoi j'écris depuis mon propre clocher, comme je le vois et l'imagine approximativement. Le simple lissage est un effacement de facto de l'information. Pas une généralisation. Un effacement tout court. Pensez à une photographie : dès que vous dégradez son contenu, l'information est irrémédiablement perdue. Et la restaurer avec l'IA est une démarche artistique, pas une restauration au sens propre. C'est un redécoupage arbitraire.

"Lissage : lorsqu'un nombre est le résultat de deux unités d'information indépendantes : le motif -1/1, par exemple, et le motif -6/6. La valeur moyenne de chaque unité sera la même, mais il y avait à l'origine deux motifs. Ils peuvent ou non signifier quelque chose, ils peuvent signifier des signaux opposés.




C'est là qu'interviennent les mashki, les oscillateurs, etc. qui ne font qu'effacer ou brouiller stupidement l'"image" initiale du marché. Et dans ce "brouillage", nous effrayons le SN, qui essaie sans cesse de fonctionner comme il le devrait. La généralisation et le lissage sont des phénomènes hétérogènes extrêmement rébarbatifs.

 
Ivan Butko #:

Quelques résumés :

Je ne parle pas au nom de tout le MO, les conclusions sont purement dans le contexte de ce fil, à savoir des années de tests et de sélection de réseaux neuronaux simples, le plus souvent des MLP.

Donc :
  • plus il y a d'entrées, plus c'est mauvais
  • plus il y a de neurones, pire c'est.
  • plus il y a de couches, pire c'est.
  • plus l'architecture est complexe, pire c'est


Tout au long de la branche et au-delà, les meilleurs résultats ont été obtenus avec un simple perceptron à une ou deux entrées (en fonction des spécificités).

Tout ce que j'ai trouvé "fonctionnant" sous la forme d'ensembles s'est avéré être une répétition sous la pire forme des résultats des conceptions les plus simples.




Je me suis rendu compte que je venais de trouver un modèle algorithmique en examinant diverses données d'entrée, ce qui répondait en fait partiellement à la question de ma branche : "Que faut-il introduire dans le réseau neuronal ?" Mais le réseau neuronal s'est avéré inutile. Ni MLP, ni RNN, ni LSTM, ni BiLSTM, ni CNN, ni Q-learning, ni tout cela combiné et mélangé.

En conséquence, le graphique est le plus souvent décrit par un seul nombre. Et ce qu'il faut faire de ce nombre, qui exprime la situation/modèle/figure/événement sur le graphique, relève d'un algorithme simple avec un seuil d'ouverture (plus de 0,6 - achat et vice-versa). Dans les deux cas, le nombre prend des valeurs allant de -1 à 1.

Comme données d'entrée, parmi toutes celles testées (que j'ai pu mettre en œuvre), les deux peuvent fonctionner le plus longtemps, à la fois dans le passé et dans le futur : j'ai toujours optimisé pour une année : 2021-2022 sur H1 EURUSD, et j'ai ensuite testé les ensembles sur l'ensemble de l'historique.

Dès que le graphique montre quelques signes de vie sur le backtest de 20 ans, j'ai optimisé l'ensemble pour une période plus longue - 2012-2021, 9 ans.


Dans l'une de ces expériences, j'ai optimisé 2 entrées sur 3 neurones. En conséquence, l'un des ensembles supérieurs a montré l'image suivante



* ******* **************



UPD Voici un autre ensemble, même chose : milieu - optimisation, résultats - sur les côtés. Presque la même chose, juste plus uniforme






**********************

Les trades ne sont ni des pips ni des scalps, mais plutôt de l'intraday.










Donc, mes conclusions subjectives pour le moment :

  • Le réseau neuronal n'est applicable qu'aux modèles stationnaires et statiques, qui n'ont rien à voir avec la fixation des prix.
  • Le réseau neuronal mémorise la trajectoire. Rien de plus.
  • Il y a des régularités. Elles sont simples. Plus simples que ce que nous compliquons frénétiquement.
  • Les modèles sont dans la géométrie. Les chandeliers ne fonctionnent que s'il n'y a pas de spread ni de commission.
  • LES OSCILLATEURS SONT DIABOLIQUES ! Ils effacent complètement les informations sur le marché, les brouillent, les salissent et les rendent franchement bruyantes. De plus, le bruit ici est dans le contexte - réel !
    Je n'ai jamais vu de ma vie de pires résultats qu'avec des indicateurs de lissage . C'est comme une personne voyante qui devient aveugle. Tout à l'heure, il pouvait voir une silhouette claire, et maintenant il ne peut pas comprendre ce qu'il y a - une tache dans ses yeux. Aucune information.



Mon avis, tel que je le vois

pas un pépin faible.

Est-il temps de coudre des sacs ?