L'Apprentissage Automatique dans le trading : théorie, modèles, pratique et trading algo - page 390

[Supprimé]  
Mihail Marchukajtes:

Experiment est bien, mais comment utiliser ses résultats en MT ? Puis-je décharger le modèle et le mettre dans l'indicateur pour voir comment il fonctionne dans la zone en dehors de l'échantillon ????.


Mais la version gratuite a une limite de 1000 transactions par mois, c'est-à-dire que je ne peux pas l'utiliser dans le testeur car il y aura plus de 1000 transactions dans le testeur. C'est pour ça qu'il y a un petit contretemps, je faisais juste avec.

Pour estimer rapidement le modèle et vérifier les prédicteurs - oui, pour utiliser ensuite ce modèle en temps réel - oui, pour utiliser le modèle dans le testeur de stratégie avec appel par les demandeurs - cher, 30 roubles pour 1000 appels au serveur, par exemple pour 5 minutes dans le testeur ce sera 8000 appels, c'est-à-dire 240 roubles pour une exécution dans le testeur pendant un mois pour 5 minutes

 
Maxim Dmitrievsky:

L'ensemble a-t-il été préparé à l'origine pour le classificateur de Reshetov ? Au fait, il devrait être réécrit en mql5 pour OpenCl, il sera alors plus rapide à calculer, c'est un truc cool.

Le RNN peut-il gérer autant de données ? Il existe des exemples prêts à l'emploi pour 3-4 entrées, ils peuvent être étendus à 5-10. Mais il serait irréaliste de calculer quelque chose de plus, car le nombre de paramètres à optimiser = 2N
[Supprimé]  
elibrarius:
Le RNN peut-il digérer autant de données ? Il existe des exemples prêts à l'emploi pour 3-4 entrées, ils peuvent être étendus à 5-10. Et il serait irréaliste de calculer davantage, car le nombre de paramètres à optimiser = 2N

En réalité, nous devons le réécrire sur le gpu, pouvez-vous le faire ?
 
Maxim Dmitrievsky:

En réalité, nous devons le réécrire sur le gpu, pouvez-vous le faire ?
pas de
[Supprimé]  
elibrarius:
pas de

Je le réécrirai la semaine prochaine).
 
Maxim Dmitrievsky:

Je le réécrirai la semaine prochaine).
Comment allez-vous l'optimiser ? Avec votre propre compteur et algorithme génétique? Sans utiliser l'optimiseur de test ?
[Supprimé]  
elibrarius:
Et comment allez-vous l'optimiser ? Votre propre compteur et votre propre algorithme génétique? Sans utiliser un optimiseur de test ?


Par l'optimiseur standard, mais NS sera formé sur gbu, il a une autre version en java, je dois le réécrire sur mql5

https://sites.google.com/site/libvmr/home/theory/method-brown-robinson-resetov

Метод Брауна-Робинсон-Решетова - Векторная машина Решетова
  • sites.google.com
Метод Брауна-Робинсон является наиболее старым (1951 г.) алгоритмом итеративного решения минимаксных задач, представленных в виде платёжных матриц. При этом он является методом поиска решения с оппонентом и способностью авторедукции доминируемых строк и столбцов. Однако, ему присущи ряд недостатков: Несоответствие решения аксиоматике вектора...
 
Maxim Dmitrievsky:

Par le biais d'un optimiseur interne, mais le NS sera formé sur gbu
Comment allez-vous sélectionner les coefficients ? Pour 10 entrées, il faut 1024 coefficients, c'est irréaliste. Et la dimensionnalité est trop faible pour les tâches réelles.
[Supprimé]  
Elibrarius:
Comment allez-vous ajuster les coefficients ? Pour 10 entrées, il faut 1024 coefficients, c'est irréaliste. Et la dimensionnalité est trop faible pour les tâches réelles.


Lisez le lien, vous n'avez pas besoin de sélectionner les coefficients dans l'optimiseur dans cette version.

la machine nucléaire augmente la dimensionnalité, c'est un système délicat.

Donc, tout d'abord, le modèle est entraîné sur la carte vidéo, les valeurs k sont sauvegardées et l'optimiseur se contente de choisir des arrêts et des trucs...

 
elibrarius:
Comment sélectionner les coefficients ? Pour 10 entrées, il faudrait 1024 coefficients, c'est irréaliste. Et la dimensionnalité est trop faible pour les tâches réelles.

C'est dans le RNN de Reshetov, le modèle de probabilité.

Et puis il y a jPredictor, que Mikhail utilise. Le neurone de Reshetov, il a beaucoup d'entrées et une sorte de formation au lieu de la descente de gradient.