L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 614

 

Est-il possible de commencer à apprendre exactement comment faire du commerce ? Après tout, le risque que je perde mon compte, ce dont je ne doute pas, est très élevé.

 

Mais Micha a promis de battre Java, alors il va bientôt briller.

Je me demande pourquoi pas Python ? C'est peut-être le même R ? Je ne comprends pas.
 
Dr. Trader:

J'ai souvent vu dans les EA du marché que les paramètres bons pour le trading forment un plateau dans la fonction d'optimisation. Si, par exemple, il y a une MA ou un RSI dans les paramètres, ou un certain coefficient, alors changer le paramètre par une petite valeur n'a pas affecté le résultat final.

Mais c'est logique, la plupart des paramètres qui s'y trouvent sont utilisés dans la formule de calcul de l'indicateur, donc un petit changement n'affectera que légèrement le résultat, qui sera toujours calculé sur les mêmes prix.

Au contraire, dans le domaine de l'apprentissage automatique, les paramètres peuvent avoir un effet d'avalanche sur l'ensemble du processus d'apprentissage, et même une légère modification conduit à un résultat complètement différent. Par exemple, le nombre de neurones dans une couche cachée - si nous les augmentons, le nombre de poids utilisés augmentera également, et la fonction d'initialisation des poids à l'aide de gpsc fixera leurs valeurs dans un ordre légèrement différent, ce qui conduira à un autre résultat.
Pour chaque paramètre, vous pouvez étudier l'influence progressive ou stochastique sur l'évaluation du modèle, et pour les paramètres à influence progressive, vous devez utiliser l'optimiseur basé sur les dérivés (fonction optim(method="L-BFGS-B") et optimize() en R).

Ce n'est pas un marché, ce n'est pas du tout un marché - c'est une statistique avec un certain nombre de tests sur la stabilité des ratios. Le plus célèbre est le CUSUM.

Alors peut-être que la dépendance monstrueuse du résultat par rapport aux paramètres du réseau que vous avez donnés indique qu'ils ne sont fondamentalement PAS adaptés aux marchés financiers ?

Ou peut-être faut-il d'abord construire un objet adapté au but recherché (un tracteur - ici, c'est à la mode, ou une fusée), puis discuter de la stabilité de ce que l'on obtient ?

Mais de toute façon, soit nous avons des preuves de la stabilité du modèle, soit nous n'en avons pas besoin du tout. L'erreur de modèle et la stabilité du modèle sont les deux faces d'une même pièce.

 
Yuriy Asaulenko:
Je me demande pourquoi pas Python ? Peut-être le même R ? Je ne comprends pas.

En effet. Comme vous avez une telle soif de connaissances, vous prenez une note et étudiez ce qui semble correspondre au sommet.

 
Dr. Trader:

Le modèle de Reshetov n'est pas une référence. Par exemple, il recherche un ensemble de prédicteurs en essayant différentes variantes - le modèle prend un ensemble aléatoire de prédicteurs, apprend et se souvient du résultat. Cette opération est répétée un très grand nombre de fois en boucle, le meilleur résultat étant utilisé comme modèle final. Ce processus peut être sensiblement accéléré si vous effectuez d'abord une sélection de prédicteurs à l'aide d'un algorithme spécial, puis si vous entraînez le modèle de Reshetov une seule fois sur cet ensemble particulier. Et vous obtenez la qualité du modèle Reshetov à une vitesse comparable à celle d'AWS. Le "coût" d'un tel modèle diminuera sensiblement, mais la qualité restera la même.


Quel genre d'algaritm c'est ? En général, je suis d'accord avec l'affirmation selon laquelle le prix et la qualité sont des choses légèrement différentes. Vous pouvez vous procurer un modèle bon marché mais de haute qualité. Le vrai problème de Reshetov est qu'il prend trop de temps pour calculer en raison de la division répétée de l'échantillon au hasard, etc.

Encore une fois, quels sont ces algorithmes qui peuvent immédiatement dire quel prédicteur n'est pas pertinent ? Il a une façon de la mettre en œuvre, mais je ne l'ai pas encore vraiment regardée. .... En fait, il le définit via un invariant, ce qui est logiquement tout à fait actuel, mais je pense qu'il y a tout de même des erreurs :-( plutôt que des erreurs, je ne pense pas qu'il y ait des corrections....

 

Si nous utilisons deux couches cachées, le nombre de neurones de la deuxième couche est évidemment beaucoup plus petit que celui de la première.

Quel est le minimum pour le nombre de neurones dans une couche ? Je ne pense pas que cela ait un sens de faire moins de 3-5.

Ou une couche avec 1 - 2 neurones peut également apporter une contribution significative au modèle ?

 
elibrarius:

Si nous utilisons deux couches cachées, le nombre de neurones de la deuxième couche est évidemment beaucoup plus petit que celui de la première.

Quel est le minimum pour le nombre de neurones dans une couche ? Je ne pense pas que cela ait un sens de faire moins de 3-5.

Ou une couche avec 1 - 2 neurones peut également apporter une contribution significative au modèle ?


En pratique - 1 neurone avec 3 entrées peut encocher des signaux normaux pendant 1 à 1,5 mois sur des graphiques de 15 minutes et environ 200 transactions, si nous prenons un échantillon plus grand, la qualité de l'encolement chute dramatiquement ainsi que le nombre de transactions, pas assez de combinaisons. C'est-à-dire que si le système reste stationnaire et que les signaux se répètent, 1 neurone suffirait même.

même chose avec la logique floue sur 3 entrées grossièrement, et avec l'optimisation de 4 fonctions d'appartenance
 
Mihail Marchukajtes:

Encore une fois, quel genre d'algorithmes existe-t-il ? qui peut dire en un coup d'œil quel prédicteur n'est pas pertinent.

Il existe de nombreux algorithmes, même plus qu'on ne le souhaiterait. Par exemple -

Article de Vladimir -https://www.mql5.com/ru/articles/2029

Article d'Alexey -https://habrahabr.ru/company/aligntechnology/blog/303750/

 

Pour ceux qui aiment charger le processeur avec toutes sortes de choses lors de la modélisation, voici un moyen de réduire considérablement le temps.


Les simulations parallèles dans le nuage en valent-elles la peine ? Comparaison entre mon MBP et ma station de travail et Amazon EC2

Are parallel simulations in the cloud worth it? Benchmarking my MBP vs my Workstation vs Amazon EC2
Are parallel simulations in the cloud worth it? Benchmarking my MBP vs my Workstation vs Amazon EC2
  • Kristoffer Magnusson
  • www.r-bloggers.com
If you tend to do lots of large Monte Carlo simulations, you’ve probably already discovered the benefits of multi-core CPUs and parallel computation. A simulation that takes 4 weeks without parallelization, can easily be done in 1 week on a quad core laptop with parallelization. However, for even larger simulations reducing the computation time...
 
SanSanych Fomenko:

Pour ceux qui aiment charger le processeur avec toutes sortes de choses lors de la modélisation, voici un moyen de réduire considérablement le temps.

Les simulations parallèles dans le nuage en valent-elles la peine ? Comparaison entre mon MBP et ma station de travail et Amazon EC2

C Dll et une demande d'installation de mt5, R et les bons paquets - apparemment, il est irréaliste d'y arriver.

Raison: