L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 2939

 
Renat Fatkhullin #:

Vous êtes celui qui n'en est qu'au début de son périple pour faire face à l'enfer des incompatibilités mutuelles et créer des environnements distincts pour les tâches en Python.

Certains paquets nécessitent des compilateurs pour la compilation cible.

Tout à fait d'accord ! C'est beaucoup de travail. Deux questions à ce sujet :

1. Les modèles créés à l'aide du GPU peuvent-ils être convertis en ONNX ?

2. Nous n'avons pas besoin de Python pour obtenir la prédiction du modèle en ONNX dans l'Expert Advisor MQL5, n'est-ce pas ? Les calculs seront effectués par l'environnement onnxruntime ?

 
Vladimir Perervenko #:

Je suis tout à fait d'accord ! C'est un travail considérable. Deux questions :

1. Les modèles créés à l'aide du GPU peuvent-ils être convertis en ONNX ?

2. Pour obtenir la prédiction du modèle en ONNX dans l'Expert Advisor MQL5, nous n'avons pas besoin de Python, n'est-ce pas ? Les calculs seront effectués par l'environnement onnxruntime ?

En théorie, c'est probablement le cas. Mais il peut s'avérer en pratique que seuls les modèles formés en Python conviennent, et seulement dans un environnement unique de paquets, d'utilitaires et de compilateurs (en tenant compte de leurs numéros de version). C'est du moins ainsi que j'ai compris l'allusion de Renate.

 
Vladimir Perervenko #:

Je suis tout à fait d'accord ! C'est un travail considérable. Deux questions :

1. Les modèles créés à l'aide du GPU peuvent-ils être convertis en ONNX ?

2. Pour obtenir la prédiction du modèle en ONNX dans l'Expert Advisor MQL5, nous n'avons pas besoin de Python, n'est-ce pas ? Les calculs seront effectués par l'environnement onnxruntime ?

1. Oui, cela dépend du moteur source, qui peut être converti en ONNX dans l'opset existant.

2. Vous n'avez pas besoin de Python pour exécuter le modèle, tout ce dont vous avez besoin est un fichier EX5 et un terminal. Même les bibliothèques d'exécution ONNX ne seront bientôt plus nécessaires.

 
Renat Fatkhullin #:

2. Vous n'avez pas besoin de Python pour exécuter le modèle, tout ce dont vous avez besoin est un fichier EX5 et un terminal. Même les bibliothèques ONNX Runtime seront bientôt inutiles.

Et alors, ce truc fonctionnera-t-il sur les semi-conducteurs ?

 
Renat Fatkhullin #:

1. Oui, cela dépend du moteur source qui peut convertir en ONNX dans l'opset existant.

2. Vous n'avez pas besoin de Python pour exécuter le modèle, tout ce dont vous avez besoin est un fichier EX5 et un terminal. Même les bibliothèques d'exécution ONNX ne seront bientôt plus nécessaires.

1. et nous avons opset=14 ? J'utilise PyTorch(1.12.1) et TF(2.10).

Предупреждение: TensorFlow 2.10 был последним выпуском TensorFlow, который поддерживал GPU в родной Windows. 
Начиная с TensorFlow 2.11 , вам нужно будет установить TensorFlow в WSL2 или установить tensorflow-cpu и, 
при желании, попробовать TensorFlow-DirectML-Plugin.

2. extrêmement important et ce sera le plus grand avantage de cette intégration. Très bien...

 

La chose la plus intéressante est de savoir si les modèles ONNX créés dans R fonctionneront.

Une liste des versions d'ONNX et des opsets supportés serait utile.

 
Aleksey Nikolayev #:

Le plus intéressant est de savoir si les modèles ONNX créés en R fonctionneront.

Nous pouvons même aggraver la question. Les modèles ONNXréalisés en R fonctionneront-ils sous linux ?

 
Aleksey Nikolayev #:

Le plus intéressant est de savoir si les modèles ONNX créés en R fonctionneront.

Une liste des versions ONNX et des opsets supportés ne serait pas déraisonnable.

Je soutiens la question
 
mytarmailS #:
Deuxième question

Quels sont les packages R que vous utilisez pour créer des modèles ?

 
Aleksey Nikolayev #:

Je publie le projet dans les archives au cas où.

Merci, mais je saute le pas ... c'est trop cher pour aller plus loin, je n'ai pas beaucoup de temps ))
Raison: