Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
Expliquez-moi :
Supposons que j'ai entraîné le perceptron1 avec un échantillon de test du fichier 1. Il a appris à prédire le même fichier1 à 100 %.J'ai ensuite testé ce perceptron1 sur de nouvelles données (fichier2). Il les a prédits correctement à 95 %.
Commentpuis-je entraîner le perceptron1?
Option 1 :
Je colle fichier1 et fichier2 = fichier12. J'entraîne le perceptron2 à partir de zéro en lui donnant le fichier12 + les réponses correctes.
Option 2:
Je corrige manuellement les réponses correctes dans le fichier 2 et j'entraîne à nouveau le perceptron 1.
L'option 1 se passe d'explications. Il s'agit simplement d'entraîner un nouveau perceptron à partir de zéro.
Mais comment mettre en œuvre l'option 2 ? Est-elle réalisable ?
=========
J'expérimente actuellement dans Jupyter en Python avec la bibliothèque scikit-learn. Là, le perceptron n'a pas de méthode pour l'entraîner avec de nouvelles données....
http://scikit-learn.org/dev/modules/generated/sklearn.neural_network.MLPClassifier.html#sklearn.neural_network.MLPClassifier
L'article est super, probablement le seul avec une présentation plus ou moins détaillée et compréhensible,
Je voudrais demander à l'auteur de corriger l'image, après tout, dans cet exemple nous ne considérons pas un réseau, mais un perceptron,
et nous attendons un exemple de réseau neuronal, par exemple : 2 neurones à l'entrée, 3 dans la couche cachée, 1 à la sortie.
Merci beaucoup pour cet article !
Osb : Je suis encore un débutant en programmation.
J'ai quelques questions de base et certaines vont se poser au cours du développement que je vais essayer de faire. Puis-je vous consulter ?
Seriez-vous intéressé par le développement de ce travail ?
https://www.mql5.com/fr/articles/2279
La modification de la pente de la fonction d'activation n'est absolument pas nécessaire !
Voir la formule :
Lors de l'apprentissage, le réseau doit capter les multiplicateurs Wn. S'il est plus favorable pour le réseau d'avoir un total de *0,4, il sélectionnera simplement tous les poids de Wn, dont chacun sera déjà *0,4. En d'autres termes, il suffit de mettre entre parenthèses le multiplicateur commun, qui sera déterminé par l'erreur minimale.
Dans cette implémentation, vous pouvez simplement réduire l'étape de sélection des poids. Dans les réseaux neuronaux plus sérieux, les coefficients nécessaires seront trouvés d'eux-mêmes.
La normalisation est mal effectuée, puis un coefficient de 0,4 pour une raison quelconque....
Supposons une série de valeurs : 0, 1, 2, 3, 4, 5, 6, 7, 8, 9, 10
Les valeurs de cette série devraient être réduites à la séquence [0,1]. Logiquement, il s'agirait de la série : 0, 0,1, 0,2, 0,3, 0,4, 0,5, 0,6, 0,7, 0,8, 0,9, 1.
Cependant, votre méthode ne produit que des nombres aléatoires. Supposons que nous obtenions les valeurs de l'indicateur : 6, 7, 8, 9, 10. En simplifiant votre formule :
Nous obtenons :
6 >> 0
7 >> 0.25
8 >> 0.5
9 >> 0.75
10 >> 1
Dans cette série, normalisée selon les instructions de votre article, seule la dernière valeur est vraie.
Si vous avez suivi un cours d'algèbre linéaire et que vous savez distinguer le cosinus de la tangente, il est incompréhensible que vous vous trompiez dans une tâche aussi simple. Les résultats de votre travail sont purement aléatoires !!!
Mais j'avoue que j'ai utilisé cette publication comme point de départ. Je l'ai imprimée, relue attentivement, j'ai pris des notes au stylo. Ensuite, je suis allé à la Maison du livre et j'ai acheté"Neural Networks for Information Processing" d'Osovsky. Je l'ai lu, je suis devenu très intelligent et me voilà en train d'écrire....
Pourquoi est-ce que je n'obtiens que 365 dollars de profit lors du backtesting?