Réseaux neuronaux - page 27

 
Neural Networks Made Easy
Neural Networks Made Easy
  • www.mql5.com
Artificial intelligence is often associated with something fantastically complex and incomprehensible. At the same time, artificial intelligence is increasingly mentioned in everyday life. News about achievements related to the use of neural networks often appear in different media. The purpose of this article is to show that anyone can easily create a neural network and use the AI achievements in trading.
 

Forum sur le trading, les systèmes de trading automatisés et le test des stratégies de trading

Faire passer les réseaux neuronaux au niveau supérieur

Sergey Golubev, 2021.04.13 10:14

L'apprentissage automatique dans les systèmes de trading Grid et Martingale. Parieriez-vous dessus ? - MT5

L'apprentissage automatique dans les systèmes de trading Grid et Martingale. Parieriez-vous dessus ?

Nous avons travaillé dur pour étudier les différentes approches de l'apprentissage automatique visant à trouver des modèles sur le marché des changes. Vous savez déjà comment former des modèles et les mettre en œuvre. Mais il existe un grand nombre d'approches du trading, dont presque chacune peut être améliorée en appliquant des algorithmes modernes d'apprentissage automatique. L'un des algorithmes les plus populaires est la grille et/ou la martingale. Avant d'écrire cet article, j'ai fait une petite analyse exploratoire, en recherchant les informations pertinentes sur Internet. Étonnamment, cette approche est peu ou pas du tout couverte par le réseau mondial. J'ai fait un petit sondage parmi les membres de la communauté concernant les perspectives d'une telle solution, et la majorité a répondu qu'ils ne savaient même pas comment aborder ce sujet, mais que l'idée elle-même semblait intéressante. Pourtant, l'idée elle-même semble assez simple.

Réalisons une série d'expériences à deux fins. Premièrement, nous essaierons de prouver que ce n'est pas aussi difficile que cela peut paraître à première vue. Deuxièmement, nous essaierons de savoir si cette approche est applicable et efficace.



 

Les réseaux neuronaux en toute simplicité (12e partie) : Abandon

Since the beginning of this series of articles, we have already made a big progress in studying various neural network models. But the learning process was always performed without our participation. At the same time, there is always a desire to somehow help the neural network to improve training results, which can also be referred to as the convergence of the neural network. In this article we will consider one of such methods entitled Dropout.

 

Les réseaux neuronaux en toute simplicité (Partie 13) : Normalisation par lots

In the previous article, we started considering methods aimed at increasing the convergence of neural networks and got acquainted with the Dropout method, which is used to reduce the co-adaptation of features. Let us continue this topic and get acquainted with the methods of normalization.

Neural networks made easy (Part 13): Batch Normalization
Neural networks made easy (Part 13): Batch Normalization
  • www.mql5.com
In the previous article, we started considering methods aimed at improving neural network training quality. In this article, we will continue this topic and will consider another approach — batch data normalization.
 

Forum sur le trading, les systèmes de trading automatisés et le test des stratégies de trading

Faire passer les réseaux neuronaux au niveau supérieur

Sergey Golubev, 2021.10.20 11:21

Programmation d'un réseau neuronal profond à partir de zéro à l'aide du langage MQL

https://www.mql5.com/en/articles/5486

Depuis que l'apprentissage automatique a récemment gagné en popularité, beaucoup ont entendu parler de l'apprentissage profond et souhaitent savoir comment l'appliquer dans le langage MQL. J'ai vu des implémentations simples de neurones artificiels avec des fonctions d'activation, mais rien qui ne mette en œuvre un véritable réseau neuronal profond. Dans cet article, je vais vous présenter un réseau de neurones profonds implémenté dans le langage MQL avec ses différentes fonctions d'activation, telles que la fonction tangente hyperbolique pour les couches cachées et la fonction Softmax pour la couche de sortie. Nous passerons de la première étape à la fin pour former complètement le réseau de neurones profonds.

 
Bonjour Sergey Golubev : Je voudrais vous souhaiter de bonnes vacances, je lis beaucoup vos articles et références, connaissez-vous un programmeur qui a l'expérience de faire du travail avec les neurones ? J'utilise 3 indicateurs, qui lorsqu'ils sont alignés, sont très rentables ! !!, Merci beaucoup pour toute information, un câlin !
Raison: