Discussion de l'article "Réseau neuronal bon marché et joyeux - Lier NeuroPro avec MetaTrader 5" - page 5

 
zaskok:

En ce qui concerne l'article lui-même, pas les NS en général. Quel est le problème ? Le nombre de coefficients à ajuster est comparable à la quantité d'historique.

Prenons un nombre de coefficients égal à la quantité d'histoire. Je pense que l'ajustement sera alors parfait. Il n'y aura pas une seule transaction perdante et l'ajustement tirera le maximum de l'historique.

Si nous abordons la construction du NS comme une sélection d'un nombre illimité de coefficients, nous n'avons pas besoin d'une telle chose.

Vos arguments seraient justes si l'article s'intitulait "Créer le Graal". :)

Mais l'article ne parle pas du tout de cela. La structure des NS est donc parfaitement adaptée à l'objectif de l'article et permet de

1) de démontrer clairement les étapes de la création de l'EA (en particulier, la différence entre la précision du réseau non entraîné et celle du réseau entraîné est parfaitement perceptible - il n'y aurait pas de différence aussi perceptible s'il n'y avait que quelques neurones dans le réseau) ;

2) démontrer le travail avec des réseaux de grande taille. Toutes ces manipulations sur le remplacement massif de texte dans le Bloc-notes seraient incompréhensibles s'il n'y avait que quelques neurones dans l'exemple. Et qui sait quelle taille de NS sera construite par les lecteurs. En l'occurrence, je leur ai tout appris à l'avance.

 
Je me demande quelle est la période pendant laquelle l'avant ne se déverse pas dans l'avenir ? Si c'est un mois, c'est bien.
 
marker:
Je me demande quelle est la période pendant laquelle l'avant ne se déverse pas dans l'avenir ? Si c'est un mois, c'est bien.
Cela commence à fuir tout de suite.
 

La plupart des traders ne peuvent pas et ne savent pas comment ouvrir correctement un ordre d'achat stop ....

Et à la vue d'un tel article, ils seront tout simplement incontinents ...

[Supprimé]  
ds2:

Vos arguments seraient valables si l'article s'intitulait "Créer le Graal". :)

Mais ce n'est pas du tout le sujet de l'article. La structure de la NS est donc parfaitement adaptée à l'objet de l'article et permet :

1) de démontrer clairement les étapes de la création de l'EA (en particulier, la différence entre la précision du réseau non entraîné et celle du réseau entraîné est parfaitement perceptible - il n'y aurait pas de différence aussi perceptible s'il n'y avait que quelques neurones dans le réseau) ;

2) démontrer le travail avec des réseaux de grande taille. Toutes ces manipulations sur le remplacement massif de texte dans le Bloc-notes seraient incompréhensibles s'il n'y avait que quelques neurones dans l'exemple. Et qui sait quelle taille de NS sera construite par les lecteurs. En l'occurrence, je leur ai tout appris à l'avance.

Votre article est très utile pour une vision enfin sobre des SN. La prise de conscience que la logique "multiplier et ajouter" est extrêmement primitive, et qu'elle nécessite donc beaucoup plus de paramètres d'entrée pour un ajustement acceptable que des approches plus significatives.

Certes, l'expérience mondiale a montré que même une logique aussi simple peut donner des résultats remarquables dans la reconnaissance d'un nombre fini de modèles - captchas, images, etc. Mais lorsque vous devez travailler avec un nombre infini de modèles (séries temporelles), vous obtenez quelque chose de similaire à ce que vous voyez dans l'article.

Si l'objectif était de s'intéresser aux NS appliqués à des tâches non liées à la BP, mais en utilisant toujours la BP comme exemple, alors cette approche est quelque peu étrange. Mais votre article est peut-être le plus honnête sur les NS. Dommage que personne ne regarde le code source et ne comprenne ce qu'il en est. Les discussions NS vs NS pour satisfaire le besoin intérieur de discuter de quelque chose sur le sujet NS sont bien démontrées par certains commentaires à l'article.

 

Eh bien, certaines personnes lisent le code. Du point de vue de l'utilité de l'article pour moi personnellement, je lui donne 100%.

Même du point de vue des NS "modernes", cette approche a encore le droit d'exister.

Si certaines personnes ne voient pas les opérations + et * dans le code, que dois-je leur dire... ? L'article s'adresse aux développeurs, pas aux traders (surtout ceux qui ne connaissent pas les buy-stops).

Merci à l'auteur. Je l'ai ajouté à mes favoris, car je reviendrai souvent sur ce sujet.

[Supprimé]  

Oh, mon Dieu, quelles passions que ....., les neurones, les gènes, les mutations naturelles, les réplications artificielles, avec une colonie de chromosomes)) c'est tout ce qu'il faut savoir pour comprendre qu'ils sont divorcés sur les classiques, et qu'on ne peut pas simplifier ?

Qu'est-ce que le réseau neuronal contrôle si on lui apprend, le caractère de la paire ? Ou ai-je raté quelque chose ? Si c'est le cas, ça ne vaut pas l'argent et la peine qu'on y consacre.

 
Excellent article !
 

Bonjour Andrew,

Merci pour cet article très intéressant ! C'est bien de voir comment connecter MT5 avec des réseaux neuronaux.

Avez-vous envisagé de faire votre exemple de réseau neuronal pour le connecter à MT4... ?

MT4 a une base d'utilisateurs beaucoup plus importante et cela encouragerait plus de gens à apprécier ce que votre excellent article offre vraiment.

Aussi...j'ai essayé de chercher NeuroPro pour l'essayer...mais il est difficile à trouver et il ne semble pas y avoir beaucoup de support pour lui... ?

Vous pouvez envisager d'utiliser un programme de réseau neuronal gratuit appelé Neuroph à la place...

http://neuroph.sourceforge.net/

Neuroph est un programme plus récent, supporté par Java et doté d'une interface graphique conviviale pour construire et tester les réseaux (sans avoir besoin de coder quoi que ce soit).

En fait, Neuroph ressemble beaucoup aux exemples de NeuroPro que vous avez postés... donc la conversion devrait être assez facile.

Neruoph fonctionne également avec les fenêtres actuelles et anciennes et dispose de versions 32bit ou 64bit pour le multi-core... donc pas de problèmes de compatibilité à ce que j'ai lu.

Quoi qu'il en soit, j'espère que vous envisagerez de rédiger l'article sur Neuroph/MT4, ce qui serait d'une grande aide !

En attendant, merci pour cet article très instructif qui offre de nombreuses possibilités d'utilisation des réseaux neuronaux !

A bientôt,
Robert
Java Neural Network Framework Neuroph
  • neuroph.sourceforge.net
Neuroph is lightweight Java neural network framework to develop common neural network architectures. It contains well designed, open source Java library with small number of basic classes which correspond to basic NN concepts. Also has nice GUI neural network editor to quickly create Java neural network components. It has been released as open...
 
Excellent article, merci Andrew.

Et excellent conseil sur Neuroph, merci Robert, ça a l'air TRES intéressant !

Santé
Stu