Une bibliothèque rapide et gratuite pour MT4, pour le plus grand plaisir des neuralnetworkers. - page 3
Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
Permettez-moi de poser quelques petites questions aux professionnels :
1. Quel est l'effet des paramètres AnnsNumber, AnnInpit, delta (en général) ?
2. quelles sont les limites de leur modification.
3. est-il utile de les optimiser ?
Aussi, pour une raison inconnue (pour moi), dans certains cas, après la formation d'un réseau neuronal dans le Conseiller Expert NeuroMACD-fixed.mq4
vérifier les résultats de l'entraînement en utilisant le filtre obtenu sur l'ensemble d'entraînement ne donne aucun résultat visible.
Pour être plus exact, les résultats avant et après l'application du filtre sont absolument identiques.
Quelle peut en être la raison ?
Désolé pour la taffalogie :).
J'ai retravaillé l'EA, nettoyé les bugs. Je l'ai mis dans la base de code. Après vérification par le modérateur, sera disponible à l'adresse suivante : https://www.mql5.com/ru/code/9386.
J'ai retravaillé l'EA, nettoyé les bugs. Je l'ai mis dans la base de code. Après examen par le modérateur, il sera disponible à l'adresse suivante : https://www.mql5.com/ru/code/9386.
C'est fait.
C'est fait.
Merci pour votre rapidité !
Serveur : Alpari-Demo
Login : 2033582
Mot de passe de l'investissement : hfti6op (affichage seulement)
Je teste l'Expert Advisor https://www.mql5.com/ru/code/9386 sur la démo, voici les premiers résultats :
Bonjour Yuri.
Veuillez expliquer pourquoi deux optimisations distinctes de votre EA,
Si j'utilise la même période, les mêmes données, les mêmes paramètres d'optimisation,
produisent des résultats complètement différents.
Tous les fichiers d'entraînement du réseau ont été supprimés et recréés lors de la nouvelle optimisation.
Je pensais que les résultats devaient être identiques ou similaires et ne devaient varier que si certaines conditions d'optimisation étaient modifiées (par exemple, en allongeant la période d'un jour).
S'avère-t-il que le réseau apprend différemment à chaque fois que les conditions et les données sont les mêmes ? Est-ce normal ?
Comment puis-je l'utiliser, si le résultat est différent à chaque fois ?
Ou bien je n'ai pas fait quelque chose conformément à l'instruction ?
Conseiller expert : FANN-EA
J'ai fait des réglages pour l'optimisation :
Devise : EURUSD
Période : 1M
Intervalle : 01/10/09 - 09/12/09
StopLoss : 10 à 100 étape 1
x : 1 à 5000 étape 1
Brièvement les résultats des optimisations (triés par profit maximal) :
1ère optimisation.
2ème optimisation (réalisée à l'identique)
Bonjour Yuri.
Veuillez expliquer pourquoi il y a deux optimisations distinctes de votre EA,
Si je voulais utiliser cet EA pour la même période de temps, pour les mêmes données, avec les mêmes paramètres d'optimisation,
produisent des résultats complètement différents.
Chaque fois que vous faites fonctionner le neuronet, il l'affine, c'est la différence dans les résultats, c'est vrai...
Quelqu'un peut-il expliquer quelque chose dans les exemples de FANN ? En particulier, le fichier cascade_train.c contient ce genre de choses :
Je ne comprends probablement pas quelque chose, mais il semble que chaque paire suivante de téléchargements de fichiers de formation et de test écrase les précédents. Pourquoi cela se produit-il ? De plus, il y a une fuite de mémoire car fann_destroy_train(data) n'est pas appelé entre les chargements ;Et ce n'est pas tout :
Quel est l'intérêt ?Chaque exécution du réseau neuronal le termine, c'est la différence des résultats, d'accord...
Le 2ème run d'optimisation a été effectué à partir de "0" sur les mêmes données avec les mêmes paramètres.
Les fichiers du répertoire ANN de la première optimisation ont été supprimés avant d'exécuter la deuxième optimisation.
Il n'y a rien à y "apprendre" puisqu'il s'agit d'une nouvelle formation, mais elle donne des résultats totalement différents.
La 2ème optimisation a été faite à partir de "0" sur les mêmes données avec les mêmes paramètres.
Il n'y a rien à "apprendre", puisqu'il s'agit d'une nouvelle formation, mais elle donne des résultats complètement différents.
C'est bon aussi, initialement le réseau est initié avec des poids aléatoires, et les ajuste pendant l'optimisation, la formation. Poids initiaux différents - résultats finaux différents.
Z.I. bien que mon EA n'ait pas obtenu des résultats aussi radicalement différents, mais cela pourrait dépendre de beaucoup de conditions.