L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 979

 

J'ai joué avec NS et kfold ainsi qu'avec les ensembles NS d'alglib pour la classification (softmax), première impression :

1. les trains LBFGS sont beaucoup plus rapides que LM (il est irréel d'attendre le deuxième), même pour un NS sans ensemble.

2. kfold continue à montrer une grande erreur d'apprentissage, je n'ai pas réussi à mettre la stratégie dans des positions ++ même à 2 fautes, pour ne rien dire de 10. Peut-être pas très adapté à ma tâche, mais je vais réessayer.

L'ensemble de NS basé sur l'algorithme Bagging et LBFGS est de même qualité que l'ensemble d'échafaudages, mais s'entraîne plus lentement.

3. ensemble de halte précoce avec échantillonnage de validation (LM est utilisé par moi) : j'ai hâte de l'apprendre.

4) L'ajustement des paramètres (pas, nombre de retriggers) ne donne pas d'améliorations visibles. Augmenter le nombre de neurones de 2 à 3 fois donne une petite amélioration.

5. En général, j'ai l'impression que les NS sont recyclés de la même manière, l'ensemble des NS sur le buggying se recyclant un peu moins que le comité de la forêt.

Tout cela a été fait afin de pouvoir ensuite comparer avec xgboost par exemple, que j'étudierai plus tard.

++ empiler les modèles avec moi n'a pas donné plus de stabilité, s'entraîne de la même façon, parfois vous pouvez améliorer les résultats sur un plateau parce que le modèle s'entraîne plus.

 
Maxim Dmitrievsky:

Salut, un peu hors sujet. Une fois sur le forum, j'ai trouvé votre correspondance avec une autre personne. Vous étiez en train de discuter du programme utilisé pour obtenir de l'aide de Microsoft. (Celui qui s'affiche en appuyant sur F1). Pour y rassembler mes variantes de code sous une forme plus pratique avec recherche. Veuillez me conseiller une fois de plus. (J'espère que je ne me suis pas trompé et que c'était vous)))

 
Evgeny Raspaev:

Salut, un peu hors sujet. J'ai trouvé votre correspondance avec une autre personne sur le forum l'autre jour. Vous étiez en train de discuter du programme que vous utilisez pour faire l'aide de Microsoft. (Celui qui s'affiche lorsque vous appuyez sur F1). Pour y rassembler mes variantes de code sous une forme plus pratique avec recherche. Veuillez me conseiller une fois de plus. (J'espère que je ne me suis pas trompé et que c'était vous)))

Je pense que ce n'était pas moi) ne s'en souviennent pas.

 
Maxim Dmitrievsky:

Je ne pense pas que c'était moi) Je ne me souviens pas de ça.

Désolé, désolé)))

 
Evgeny Raspaev:

Dommage, je m'excuse)))

Aide et manuel d'essai.
 
Dmitriy Skub:
Aide et manuel : essayez-le.

Oh, juste ce dont j'ai besoin.

 

Bon après-midi.)


Pendant que vous cherchez ici, nous avons déjà créé REE - l'élément révolutionnaire russe.

C'est le "cinquième élément" - le graal, la pierre philosophale, le cinabre, le système qi, la réalisation de nos experts scientifiques en algorithmes.

Désormais, tout projet économico-financier sera optimisé par une analyse neuronale profonde sur le RPE.

C'est-à-dire qu'à l'avenir, 1 rouble sera égal à 1 dollar - grâce à des percées économiques.


nous sommes sur la voie d'un avenir plus radieux !))

 
Alexander Ivanov:

Bon après-midi.)

....

Vous devez faire partie de l'équipe des génies, n'est-ce pas ? Attendez, les esprits immatures ordinaires peuvent ne pas comprendre).

 
Maxim Dmitrievsky:

J'ai joué avec NS et kfold ainsi qu'avec les ensembles NS d'alglib pour la classification (softmax), première impression :

1. les trains LBFGS sont beaucoup plus rapides que LM (il est irréel d'attendre le deuxième), même pour un NS sans ensemble.

2. kfold continue à montrer une grande erreur d'apprentissage, je n'ai pas réussi à mettre la stratégie dans des positions ++ même à 2 fautes, pour ne rien dire de 10. Peut-être pas très adapté à ma tâche, mais je vais réessayer.

L'ensemble de NS basé sur l'algorithme Bagging et LBFGS est de même qualité que l'ensemble d'échafaudages, mais s'entraîne plus lentement.

3. ensemble de halte précoce avec échantillonnage de validation (LM est utilisé par moi) : j'ai hâte de l'apprendre.

4) L'ajustement des paramètres (pas, nombre de retriggers) ne donne pas d'améliorations visibles. Augmenter le nombre de neurones de 2 à 3 fois donne une petite amélioration.

5. En général, j'ai l'impression que les NS sont recyclés de la même manière, l'ensemble des NS sur le buggying se recyclant un peu moins que le comité de la forêt.

Tout cela a été fait afin de pouvoir ensuite comparer avec xgboost par exemple, que j'étudierai plus tard.

++ empiler des modèles avec moi n'a pas donné plus de stabilité, apprend quand même, parfois on peut améliorer les résultats sur un plateau parce que le modèle est juste plus entraînable

J'aimerais aussi savoir le nom du jouet avec lequel tu joues.

 
Vladimir Perervenko:

J'aimerais connaître le nom du jouet avec lequel tu joues.

Il est dit - bibliothèque d'analyse numérique alglib, portée sur MT5. Je l'ai déjà utilisé de haut en bas, il n'y a pas de problèmes en général, la bibliothèque est bonne. Mais sans visualisation et avec des modèles plus récents. Il semble que la bibliothèque ne se développe plus, il y a un silence sur leur site web.

Raison: