L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 2749

 
elibrarius #:

Lesarticles de Vladimir présentent également une erreur de l'ordre de 10 à 20 %, mais le bilan n'est pas encourageant.

cela peut aussi dépendre de l'interprétation "a-post" de la formation....

 
Maxim Dmitrievsky #:

ajouté dans le post précédent

#299

quelqu'un a supprimé mes messages où j'ai posté la vidéo... je ne sais pas comment cela peut se produire.

 
mytarmailS #:

quelqu'un a supprimé les messages où j'avais posté la vidéo... je ne sais pas comment cela peut arriver.

Bon, bon, bon, vous vous montrez beaucoup, j'imagine.

En voici une sur le modelage du bois.

#4469

#4467

A propos de la recherche de catbusters ? 😄 qui a commencé le fil de discussion

Машинное обучение в трейдинге: теория, модели, практика и алготорговля - Продолжаю переобучать каждую неделю
Машинное обучение в трейдинге: теория, модели, практика и алготорговля - Продолжаю переобучать каждую неделю
  • 2017.07.12
  • www.mql5.com
Самое интересное что я не понимаю почему он открывает сделки туда или обратно. экспериментирую с предикторами и разными способами открытия поз. тем более что оно копирует механизм работы настоящих нейронов очень примитивно и не так как на самом деле это происходит в мозгу Единственное из НС что нормально работает и перспективно это сверточные нс для распознавания всяких образов
 
Maxim Dmitrievsky #:

Eh bien, eh bien, eh bien, vous devez vous montrer beaucoup.

voici le modelage du bois

#4469

#4467

A propos de la recherche de catbusters ? 😄 who started the thread

Ecoutez, le bois n'est pas du tout un argument... 95 % des tutoriels du MoD commencent par le bois, c'est la première chose qu'un débutant apprend à connaître, tu n'en as pas la charge.

 
mytarmailS #:

Ecoutez, le bois n'est pas du tout un argument... 95% des tutoriels MoD commencent par le bois, c'est ce qu'un débutant apprend en premier, ce n'est pas de votre faute.

Il y a déjà eu des NS ici, je me suis demandé pourquoi pas des arbres. J'ai fait des tests et il s'est avéré qu'ils ne sont pas pires. Je n'ai jamais vu une telle information ici, sinon je n'aurais pas posé cette question.

Ensuite, je suis passé à bousting, j'ai trouvé la librairie katbust et j'ai commencé à la reproduire ici

 
Maxim Dmitrievsky #:

Ce sont surtout les NS qui ont été discutés ici auparavant, je me suis demandé pourquoi pas les arbres. J'ai fait des tests et il s'est avéré qu'ils ne sont pas pires. Je n'ai jamais vu une telle information ici, sinon je n'aurais pas posé cette question.

et les arbres, soit dit en passant, peuvent constituer une alternative intéressante au clustering et aux fs - "2 en 1".

Maxim Dmitrievsky #:

Je suis ensuite passé à bousting, j'ai trouvé la librairie katbust et j'ai commencé à la répliquer ici.

En ce qui concerne l'algorithme : il donne une autre dérivée seconde mathématiquement (ou une moyenne des résidus - statistiquement) - MAIS en quoi cela vous aide-t-il personnellement dans l'entraînement et dans quels cas ?.. en dehors des clichés standard dans les publicités "catboost donnera des résultats meilleurs et plus précis".... parce que la précision des points n'est pas toujours importante, parfois la capacité générative du modèle peut être plus importante.
 
JeeyCi #:

et les arbres, d'ailleurs, peuvent servir d'alternative valable au clustering et au fs.

En ce qui concerne l'algorithme : il donne une autre dérivée seconde mathématiquement (ou une moyenne des résidus - statistiquement) - MAIS en quoi cela aide-t-il à la formation et dans quels cas ?.. en dehors des clichés habituels dans les publicités "catboost donnera des résultats meilleurs et plus précis".... parce que la précision des points n'est pas toujours importante, parfois la capacité de génération du modèle peut être plus importante ?

Il existe également des modèles en bois pour l'inférence causale, mais je n'ai pas encore eu le temps de m'y intéresser.

Le boosting réduit le biais et la variance, alors que Forest ne réduit que la variance, je pense. Il s'agit d'avantages prouvés, vous pouvez le chercher sur Google. Et la bibliothèque elle-même est développée, il est pratique de travailler avec elle.

Ce n'est pas très clair en ce qui concerne les modèles génératifs, peut-être qu'ils sont parfois plus importants. Mais les modèles génératifs NS ne fonctionnent pas bien à Forex, si nous parlons de générer des données synthétiques.

Forest Based Estimators — econml 0.13.1 documentation
  • econml.azurewebsites.net
Orthogonal Random Forests are a combination of causal forests and double machine learning that allow for controlling for a high-dimensional set of confounders , while at the same time estimating non-parametrically the heterogeneous treatment effect , on a lower dimensional set of variables . Moreover, the estimates are asymptotically normal and...
 
Maxim Dmitrievsky #:

s'il s'agit de générer des données synthétiques.

non - il s'agit de généraliser... oui, c'est faux, exprimez-le.... Je suis désolé.

Je pense qu'il s'agit de distinguer les environnements à risque (risk-on/risk-off) - je réfléchis encore à la manière de généraliser cette division... tout cela est le fruit de mes propres réflexions (sur le forum par accident)...

Merci pour votre réponse !

 
JeeyCi #:

non - il s'agit de généraliser..... oui, faux, express.... désolé

Je pense qu'il s'agit de distinguer l'environnement risk-on/risk-off -- je réfléchis encore à la manière de généraliser cette division... tout cela est le fruit de mes propres réflexions (sur le forum par accident)...

Merci pour votre réponse !

Je ne sais pas si c'est une bonne idée, mais je pense que c'est une bonne idée, car je ne sais pas si c'est une bonne idée.

Il y a un arrêt précoce basé sur l'erreur sur l'échantillon de validation, pré-entraînement. La généralisation n'est pas pire que dans les NS, qui en plus doivent écrire leurs propres fonctions pour arrêter l'apprentissage.

Et il apprend rapidement, vous n'avez pas besoin d'attendre des heures.

 
Une forêt aléatoire peut-elle trouver le maximum dans une chaîne de données, c'est-à-dire simuler la fonction mach() ?

Je me demande juste si le MO peut simuler des fonctions primitives de la JA

il y a une matrice, chaque ligne de la matrice est un exemple d'apprentissage.

head(X)
     [,1] [,2] [,3] [,4] [,5]
[1,]    2    4    1    3    1
[2,]    3    1    4    5    3
[3,]    1    2    4    4    1
[4,]    1    1    5    3    5
[5,]    3    4    1    3    3
[6,]    4    4    5    1    2

Nous devons trouver le maximum de chaque ligne, la taille de l'échantillon est de 20k lignes.


résoudre le problème par la régression

 pred actual
1  4.967619      5
2  4.996474      5
3  4.127626      4
4  4.887233      5
5  5.000000      5
6  4.881568      5
7  4.028334      4
8  4.992406      5
9  3.974674      4
10 4.899804      5
11 4.992406      5

arrondi pour plus de clarté

 pred actual
1     5      5
2     5      5
3     4      4
4     5      5
5     5      5
6     5      5
7     4      4
8     5      5
9     4      4
10    5      5
11    5      5

assez bien, seulement quelques erreurs sur le test des 50 nouvelles lignes


Mais les données de la matrice X sont très simples, seulement 5 valeurs uniques de 1 à 5 et seulement 5 colonnes, mais déjà des erreurs.

Bien que je pense que si nous faisons une classification, il n'y aura pas d'erreurs, d'ailleurs vous pouvez le vérifier.

Eh bien, si, mais si nous recherchons le maximum dans les données, la classification n'est pas appropriée parce que la dispersion des valeurs peut être énorme.....

Revenons donc à la régression et compliquons les données.

head(X)
      [,1]  [,2]  [,3]  [,4]  [,5]
[1,]  0.93 -2.37 -0.35  0.16 -0.11
[2,] -0.53  0.19 -0.42  1.35 -0.16
[3,]  1.81  0.19 -0.68  0.31 -0.05
[4,]  0.08 -1.43  0.15 -0.96  0.43
[5,]  0.40  1.36  1.17 -0.99 -0.18
[6,] -2.19 -0.65  0.42 -1.12  1.46

Nous obtenons ce résultat.

  pred actual
1   1.75   1.78
2   1.33   1.31
3   1.67   1.69
4   1.15   1.16
5   0.51   0.41
6   1.00   0.99
7   0.80   0.78
8   1.75   1.76
9   0.35   0.36
10  1.78   1.79
11  2.02   2.13
12  1.26   1.21
13  1.60   1.57
14  0.19   0.06

En principe, ce n'est pas mauvais, mais la fonction habituelle mach() le fait mieux et peut remplacer tout ce modèle....

D'ailleurs, je me demande comment les autres modèles fonctionneront, s'ils seront capables de créer la fonction mach() sans erreur.