L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 487

 
Ivan Negreshniy:

Les forêts aléatoires sont censées avoir une faible erreur, car toutes les variables sont utilisées dans les arbres de décision et il n'y a pas de restriction d'utilisation de la mémoire comme dans les réseaux neuronaux - le nombre de neurones. Là, vous ne pouvez utiliser que des opérations distinctes pour "brouiller" le résultat, comme la restriction de niveau, l'élagage des arbres ou le backgammon. Je ne sais pas si l'implémentation d'alglib de MQ a l'élagage, mais la mise en sac le fait.

Si cette variable est inférieure à 1, l'erreur devrait augmenter.


c'est le cas, mais l'erreur était toujours affichée en moyenne, comme décrit ci-dessus... maintenant c'est normal

2017.09.27 18:34:34.076 RF sample (EURUSD,H1)   Info=1  Error=0.2893400000000008
2017.09.27 18:34:34.077 RF sample (EURUSD,H1)   Тест 1 >> 1*6=6 // 7*2=14 // 1*5=5 // 5*5=25 // 3*8=24 // 1*8=8 // 9*6=55 // 8*8=64 // 2*2=4 // 9*4=37 // 
2017.09.27 18:34:34.077 RF sample (EURUSD,H1)   Тест 2 >> 4.3*8.7=36.34(37.41) // 2.0*6.3=12.18(12.60) // 7.1*5.7=42.39(40.47) // 2.1*1.6=3.96(3.36) // 8.9*2.5=26.57(22.25) // 

D'ailleurs, même en diminuant r de 0,1, l'erreur augmente beaucoup. Supérieur à r 0,9 inférieur à 0,8

2017.09.27 18:36:11.298 RF sample (EURUSD,H1)   Info=1  Error=0.5431000000000188
2017.09.27 18:36:11.299 RF sample (EURUSD,H1)   Тест 1 >> 3*7=21 // 6*1=7 // 8*3=24 // 2*1=2 // 4*5=20 // 7*5=34 // 7*7=49 // 1*9=10 // 6*9=55 // 7*7=49 // 
2017.09.27 18:36:11.300 RF sample (EURUSD,H1)   Тест 2 >> 6.0*6.3=37.00(37.80) // 2.7*8.4=23.85(22.68) // 5.6*6.2=36.71(34.72) // 7.3*6.6=48.66(48.18) // 7.4*2.8=20.74(20.72) // 

A r = 0.66 (comme dans la version classique RF)

2017.09.27 18:37:44.484 RF sample (EURUSD,H1)   Info=1  Error=0.7935200000000080
2017.09.27 18:37:44.485 RF sample (EURUSD,H1)   Тест 1 >> 2*1=3 // 6*1=7 // 2*6=13 // 5*9=45 // 7*8=57 // 2*6=13 // 7*5=35 // 3*3=9 // 8*4=33 // 6*1=7 // 
2017.09.27 18:37:44.485 RF sample (EURUSD,H1)   Тест 2 >> 4.1*9.9=40.11(40.59) // 7.6*3.2=24.40(24.32) // 6.8*8.3=55.62(56.44) // 1.9*5.6=11.64(10.64) // 9.3*7.8=71.33(72.54) // 

Et les résultats montrent que la table de multiplication résout déjà mal

 
Ivan Negreshniy:

Les forêts aléatoires sont censées avoir une faible erreur, car toutes les variables sont utilisées dans les arbres de décision et il n'y a pas de restriction d'utilisation de la mémoire comme dans les réseaux neuronaux - le nombre de neurones. Là, vous ne pouvez utiliser que des opérations distinctes pour "brouiller" le résultat, comme la restriction de niveau, l'élagage des arbres ou le backgammon. Je ne sais pas si l'implémentation d'alglib par MQ a un système d'élagage, mais backgammon en a un.

Si cette variable est inférieure à 1, l'erreur devrait augmenter.

pour que l'erreur soit aussi faible que celle de @Maxim Dmitrievsky
И тоже очень маленькая ошибка: 2017.09.27 16:26:12.267  RF sample (EURUSD,H1)   Info=1  Error=0.0000000000000020
vous devez faire une mauvaise transaction sur 5000000000000000000.c'est impossible dans n'importe quel instrument.

mon respect.
 
Andrey Kisselyov:
pour que l'erreur soit aussi faible que celle de @Maxim Dmitrievsky
J'ai besoin d'une mauvaise transaction par 5000000000000000000 . il est impossible de le faire sur n'importe quel instrument.

Sincèrement.

Je vous dis que chaque arbre de décision se souvient pratiquement de tous les modèles et qu'il peut n'y avoir aucune erreur dans un ensemble d'apprentissage avec un échantillonnage de 100%, c'est-à-dire R=1.

Oui, c'est de l'ajustement excessif, mais c'est ainsi que l'algorithme fonctionne, c'est pourquoi ils utilisent toutes sortes d'astuces dans les forêts aléatoires.

 
Ivan Negreshniy:

Je vous dis que chaque arbre de décision se souvient pratiquement de tous les modèles et qu'il pourrait n'y avoir aucune erreur dans un échantillonnage à 100%, c'est-à-dire R=1.


pour cela vous devez regarder hors du sac, pour estimer le modèle, mais alors vous devriez fixer r=0.66 max.

 
Ivan Negreshniy:

Je vous dis que chaque arbre de décision se souvient pratiquement de tous les modèles et qu'il ne peut y avoir aucune erreur à un échantillonnage de 100%, c'est-à-dire R=1.

Mais d'après vos propos, je comprends que chaque arbre se souviendra d'un certain modèle, qui peut ne pas se répéter plus tard. Mais comme il n'y a pas de répétition, nous ne pouvons pas dire comment il fonctionnera et prendre sa probabilité 1 comme axiome, au lieu de la prendre 0,5 car elle n'est pas connue.

avec respect.
 
Maxim Dmitrievsky:

pour cela il faut regarder hors du sac, pour évaluer le modèle, mais alors r=0.66 max mettre oui

Il faudra sans doute y revenir, mais la technique du "one bagging" n'est pas très performante pour la prédiction - IMHO
 
Ivan Negreshniy:
Il est probablement nécessaire d'améliorer la situation, mais le balisage seul n'est pas une technologie très solide pour la prédiction, à mon avis.

Eh bien, c'est à peu près tout pour le moment... :) ensuite, si je trouve une librairie décente avec un diplôme, je le regarderai.

mais la vitesse !

 
Maxim Dmitrievsky:

c'est le cas, mais l'erreur était toujours affichée en moyenne, comme décrit ci-dessus... maintenant c'est normal

D'ailleurs, même lorsque r est réduit de 0,1, l'erreur augmente considérablement. Supérieur à r 0,9 inférieur à 0,8

A r = 0.66 (comme dans la version classique RF)

Et je peux voir d'après les résultats que la table de multiplication résout déjà très mal.

Lorsque j'ai augmenté le seuil du signal NS, je l'ai compensé en augmentant la quantité de données d'entrée nécessaires, ce qui a eu pour conséquence de réduire l'erreur, mais aussi de diminuer les variantes d'entrée.






Sincèrement.
 
Andrey Kisselyov:
Je ne suis pas entré dans le fonctionnement de la forêt. mais d'après vos paroles, je comprends que chaque arbre mémorise un modèle, qui par la suite ne peut pas se répéter. dans ce cas (puisqu'il n'y a pas de répétition), nous ne pouvons pas dire quelle est la probabilité qu'il ait fonctionné dans le plus et le prendre comme une probabilité axiomatique de 1, au lieu de le prendre à 0,5 parce qu'il est essentiellement inconnu.

respectueusement.
R=1 signifie que chaque arbre peut mémoriser la totalité de l'ensemble de motifs d'apprentissage et 0,66 signifie seulement 66%, et chaque arbre sélectionne des motifs avec retour, c'est-à-dire que les mêmes motifs peuvent être répétés par de nombreux arbres dans la forêt.
 
Andrey Kisselyov:
Lorsque j'ai augmenté le seuil du signal, NS l'a compensé en augmentant le nombre d'entrées requises. En conséquence, l'erreur a diminué, mais il y avait également moins d'options pour les entrées.




Sincèrement.

Il s'agit de bien choisir les jetons et la cible, même s'il semble qu'il n'y ait rien de plus simple qu'une table de multiplication, mais il n'y a pas de petite erreur non plus...