
Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
Il y a un problème avec la librairie onyx, une idée ?
lors de l'installation d'onyx, j'ai eu une erreur
ERREUR : Impossible de trouver une version qui réponde à l'exigence onyx (à partir des versions : 0.0.5, 0.0.17, 0.0.19, 0.0.20, 0.0.21, 0.1, 0.1.1, 0.1.3, 0.1.4, 0.1.5, 0.2, 0.2.1, 0.3, 0.3.2, 0.3.3, 0.3.4, 0.3.5, 0.3.6, 0.3.7, 0.3.8, 0.3.9, 0.3.10, 0.3.11, 0.3.12, 0.4, 0.4.1, 0.4.2, 0.4.4, 0.4.5, 0.4.6, 0.4.7, 0.5, 0.6.1, 0.6.2, 0.6.3, 0.6.4, 0.7.3, 0.7.4, 0.7.5, 0.7.6, 0.7.7, 0.7.8, 0.7.10, 0.7.11, 0.7.12, 0.7.13, 0.8.5, 0.8.7, 0.8.10, 0.8.11)
ERREUR : Aucune distribution correspondante n'a été trouvée pour onyx
puis lors de l'exécution de t2fonnx
import onyx
il y a un problème avec onyx lib une idée ?
lors de l'installation d'onyx, j'ai eu une erreur
ERREUR : Impossible de trouver une version qui réponde à l'exigence onyx (à partir des versions : 0.0.5, 0.0.17, 0.0.19, 0.0.20, 0.0.21, 0.1, 0.1.1, 0.1.3, 0.1.4, 0.1.5, 0.2, 0.2.1, 0.3, 0.3.2, 0.3.3, 0.3.4, 0.3.5, 0.3.6, 0.3.7, 0.3.8, 0.3.9, 0.3.10, 0.3.11, 0.3.12, 0.4, 0.4.1, 0.4.2, 0.4.4, 0.4.5, 0.4.6, 0.4.7, 0.5, 0.6.1, 0.6.2, 0.6.3, 0.6.4, 0.7.3, 0.7.4, 0.7.5, 0.7.6, 0.7.7, 0.7.8, 0.7.10, 0.7.11, 0.7.12, 0.7.13, 0.8.5, 0.8.7, 0.8.10, 0.8.11)
ERREUR : Aucune distribution correspondante n'a été trouvée pour onyx
puis lors de l'exécution de t2fonnx
import onyx
Bonjour, merci pour cet article. C'est un excellent moyen de construire un modèle ML et de l'incorporer dans un EA !
J'ai essayé de reproduire vos résultats, mais j'ai quelques problèmes. J'espérais que vous pourriez m'aider à comprendre pourquoi.
J'ai suivi l'article attentivement, mais j'ai obtenu des résultats radicalement différents dans le testeur de stratégie. Je comprends que ces algorithmes ont des caractéristiques aléatoires, mais je suis toujours surpris par la différence. J'ai également pris soin d'utiliser les mêmes périodes de temps afin qu'au moins mes données d'entraînement et de test soient les mêmes pour la construction du modèle, et mon backtest MT5 était sur la même période. J'ai obtenu des résultats très différents.
J'ai essayé d'identifier les causes possibles, et je pense que la différence la plus intéressante commence lors de la construction du modèle. Mes fonctions de perte suggèrent que vous avez obtenu une bien meilleure généralisation en examinant les performances sur les données de test/validation. Je les ai incluses à la fin de ce message.
Pouvez-vous suggérer des causes possibles de ce phénomène ? Le modèle est-il si fragile que cela n'est pas inattendu ?
Mon dernier effort de reproduction a consisté à copier-coller votre code Python final, en insérant quelques appels à Matplotlib pour produire les graphiques de perte, mais j'ai obtenu essentiellement les mêmes résultats. Pouvez-vous me suggérer comment je pourrais mieux reproduire vos résultats ?
Je vous remercie.
L'utilisation des modèles ONNX dans µl résout le problème de l'implémentation. Cependant, ce n'est pas le cas pour tous les modèles et ce n'est pas très facile.
L'entraînement et l'optimisation des modèles sont résolus par un processus séparé en Python.
Mais de tout ce qui précède, la première étape est la plus longue, la plus créative et la plus importante. Et il est impossible de la réaliser sur le µl. Nous ne considérons pas la mise à l'échelle primitive comme un prétraitement. Et la sagesse populaire dit : "Garbage in - rubbish out". Il y a trop de choses à développer et à mettre en œuvre en plus dans MCL pour que la MO ne soit pleinement utilisée que sur MCL. Il est impossible d'embrasser l'immensité, d'autant plus qu'elle ne cesse de s'étendre.
Par conséquent, pour exécuter un prétraitement, il faut soit le faire dans un autre langage (celui qui maîtrise R/Python/Julia, etc.), soit essayer de le convertir en ONNX.
L'intérêt de l'implémentation d'ONNX jusqu'à présent est uniquement d'apprendre à convertir, créer, simplifier et optimiser les modèles ONNX. Cela pourrait s'avérer utile à l'avenir.
On ne peut pas mieux dire, tout est précis et va droit au but
Transférer le prétraitement vers MT n'est pas un problème, je veux vraiment tester le système dans le testeur MT, en python/R je dois écrire mon propre testeur, plein d'erreurs.
Il existe déjà beaucoup de testeurs, testés en R et en python.
Mais transférer le prétraitement est un problème, le prétraitement n'est pas un calcul trivial de mise à l'échelle ou stochastique.J'ai essayé d'identifier les causes possibles, et je pense que la différence la plus intéressante commence lors de la construction du modèle. Mes fonctions de perte suggèrent que vous avez obtenu une bien meilleure généralisation en examinant les performances sur les données de test/validation. Je les ai incluses à la fin de ce message.
Pouvez-vous suggérer des causes possibles de ce phénomène ? Le modèle est-il si fragile que cela n'est pas inattendu ?
Mon dernier effort de reproduction a consisté à copier-coller votre code Python final, en insérant quelques appels à Matplotlib pour produire les graphiques de perte, mais j'ai obtenu essentiellement les mêmes résultats. Pouvez-vous me suggérer comment je pourrais mieux reproduire vos résultats ?
Je vous remercie.
Je suis également confronté au même problème.
Quelqu'un peut-il m'aider ?
Je rencontre le même problème.
Quelqu'un peut-il m'aider ?
Poursuivre mon enquête sur le problème auquel je suis confronté (probablement d'autres aussi) ; et mettre à jour mes conclusions.
Tout d'abord, merci beaucoup à MetaQuotes (l'auteur) d'avoir partagé cet article détaillé. J'apprends beaucoup dans ma quête du trading ML.
En exécutant les fichiers onnx originaux de l'article sur mon compte MetaQuates-Demo, j'ai réussi à reproduire les mêmes résultats. Cependant, en ré-entraînant le modèle onnx avec le fichier ONNX.eurusd.H1.120.Training.py ci-joint, le modèle (onnx attaché : ONNX.eurusd.H1.120.Training.py :
le modèle (onnx attached : ) obtient des scores :
et les résultats du backtest 1Jan2023-26Mar2023 sont joints : "backtest results.png"
Je ré-entraîne le fichier ONNX.eurusd.H1.120.Training.py ci-joint avec ce qui suit :
le modèle (onnx attaché :) obtient des scores :
et les résultats du bactest 1Jan2023-26Mar2023 joints : "bacttest result2.png"
Donc, d'après les exercices ci-dessus, je suppose que le modèle utilisé pour produire le résultat final de l'article n'aurait probablement pas été entraîné avec les dates suivantes ?
J'apprécierais que quelqu'un me fasse part de ses commentaires à ce sujet.