L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 595

 
SanSanych Fomenko:

Lorsque vous entrez dans un bâtiment appelé "Statistiques", il est écrit"Garbage in, rubbish out" au-dessus de l'entrée.




Tout indicateur est fonction du prix. Les réseaux neuronaux ne sont pas indulgents. Il est capable de dériver lui-même toute formule d'indicateur si le réseau est suffisamment profond. Si le réseau ne peut pas apprendre sur des données de prix, ce n'est pas à cause des entrées mais du fait qu'il est impossible de recevoir des données de sortie sur le prix.

 
Grigoriy Chaunin:

Tout indicateur est fonction du prix. Les réseaux neuronaux ne sont pas indulgents. Il est capable de dériver lui-même toute formule d'indicateur si le réseau est suffisamment profond. Si le réseau ne peut pas apprendre à partir des données sur les prix, il ne s'agit pas d'une question d'intrants, mais du fait qu'il est en principe impossible d'obtenir des données de sortie à partir des prix.

Vous et SanSanych avez tous deux raison.

D'une part, le SN construira automatiquement l'indicateur nécessaire et sa totalité. En revanche, si les données sont brutes et qu'elles contiennent trop de bruit, aucun NS ne sera en mesure d'apprendre quoi que ce soit. Donc, il s'agit aussi des entrées.

 

Dans quelle mesure est-il important de mélanger l'échantillon lors de l'entraînement du SN ? Quelles sont les justifications mathématiques de ce choix ?

Le mélange est-il pertinent pour tous les modèles MOE ou seulement pour certains modèles spécifiques ?

 
Maxim Dmitrievsky:

Dans quelle mesure est-il important de mélanger l'échantillon lors de l'entraînement du SN ? Quelles sont les justifications mathématiques de ce choix ?

Le mélange est-il pertinent pour tous les modèles MoD ou seulement pour certains modèles spécifiques ?

Le mélange est nécessaire pour empêcher l'algorithme d'apprentissage de suivre le même chemin dans chaque boucle. Nous pouvons y arriver et ne pas réussir à sortir de l'extremum local. Mais le mélange n'est pas non plus une panacée.
 
Yuriy Asaulenko:
Il est nécessaire de procéder à des mélanges pour que l'algorithme d'apprentissage ne suive pas le même chemin à chaque cycle. Il se peut que nous ne parvenions pas à sortir de l'extrémum local.

c'est-à-dire qu'il faut mélanger et s'entraîner plusieurs fois pour voir comment les résultats sont corrélés ?

 
Maxim Dmitrievsky:

c'est-à-dire mélanger quelques fois, s'entraîner quelques fois et voir comment les résultats sont corrélés ?

Remuer après quelques époques d'entraînement. Malheureusement, de nombreux algorithmes d'apprentissage ne permettent pas les pauses (voir Python - certains paquets (modules)) et recommencent à zéro à chaque fois.

Il est également bon de combiner le brassage avec le recuit. Mais, là encore, il est difficile de le faire sur la machine. Vous devez toujours examiner les résultats intermédiaires, puis planifier les étapes suivantes.

 
Yuriy Asaulenko:

Un brassage est nécessaire après quelques époques d'apprentissage. Malheureusement, de nombreux algorithmes d'apprentissage ne permettent pas les pauses (voir Python - certains paquets (modules)) et recommencent à zéro à chaque fois.

Il est également bon de combiner le brassage avec le recuit. Mais, là encore, il est difficile de le faire sur la machine. Il faut toujours observer les résultats intermédiaires et planifier ensuite les étapes suivantes.


wow... c'est ça... c'est-à-dire que le fait de le mélanger avant l'entraînement n'a aucun sens.

 
Alexander_K2:Je connais des gens qui ont tiré le graal de NS, mais ces gars sont tellement fermés à la communication et même aux indices sur ce qu'ils font, je n'ai aucune chance en tant que débutant. Je sais seulement que tout est compliqué, ce n'est pas Vels, pas Metatrader et même pas S#, mais C++ et MatLab avec quelques puces qui décodent et interprètent les données provenant des caliders, il s'est avéré qu'il s'agit d'une seule et même méthodologie, j'ai entendu et j'ai eu peur, ils travaillent avec des oncles qui broyaient des téraoctets par jour au CERN, à la recherche de nouvelles particules dans le chaos quantique.

Et vous l'avez maintenant) Rattlesnake est CatBoost.
---------
Si jamais vous avez envie d'attraper un boson...
https://www.kaggle.com/c/higgs-boson

Higgs Boson Machine Learning Challenge
Higgs Boson Machine Learning Challenge
  • www.kaggle.com
Use the ATLAS experiment to identify the Higgs boson
 

Par défaut, Darch effectue un mélange avant chaque époque. J'ai essayé de l'éteindre - ça n'a rien appris du tout.

Je me demandais donc, si tout est mélangé, comment faire pour que les données fraîches aient un effet plus fort sur l'apprentissage ?

 
elibrarius:

Par défaut, Darch effectue un mélange avant chaque époque. J'ai essayé de l'éteindre - ça n'a rien appris du tout.

Je me demandais donc, si tout est mélangé, comment faire pour que les données fraîches aient un effet plus fort sur l'apprentissage ?

Essayez la validation croisée (K-fold).
Raison: