L'étiquette du marché ou les bonnes manières dans un champ de mines - page 51

 

Je me concentre, bien sûr.

La question en tant que telle ne se pose plus. J'ai accumulé le mauvais carré de correction, donc j'ai dû beaucoup la réchauffer. Je ne l'ai remarqué que lorsque j'ai commencé à écrire le code pour la double couche.

 
Neutron >> :


Oui, je ne prédis qu'une étape à l'avance, puis je ré-entraîne la grille. Je prédis la direction du mouvement attendu, pas sa magnitude ou sa durée dans le temps.

>> Merci de clarifier, est-ce que vous prédisez la "couleur" de la future barre +1 ou est-ce que vous estimez le mouvement de manière plus complexe, en prenant en compte l'historique par rapport à la barre actuelle ?

 
Je veux savoir s'il est normal que les poids de la couche cachée soient en moyenne d'un ordre de grandeur supérieur aux poids de la couche de sortie - c'est-à-dire que les poids de ma couche cachée sont des unités et des dizaines, mais que les poids de ma couche de sortie sont à moins d'une unité.
 
paralocus писал(а) >>
Je veux savoir s'il est normal que les poids de la couche cachée soient en moyenne d'un ordre de grandeur supérieur aux poids de la sortie - c'est-à-dire que mes poids cachés sont des unités et des dizaines, et que mes poids de sortie sont à une unité près.

En principe, oui. Le fait est que la dispersion de votre entrée pour la couche cachée est dans la plage +/-2...5 et pour la sortie +/-1 (en raison de l'AF à la sortie de la couche cachée). Cela explique l'effet que vous avez remarqué.

grasn a écrit >>

Pourriez-vous préciser, s'agit-il de prédire la "couleur" de la future barre +1 ou d'évaluer le mouvement de manière plus complexe, en tenant compte de l'historique par rapport à la barre actuelle ?

Seulement la "couleur", pas la barre et pas l'histoire.

 

Une double couche sur le sinus :

Au fait, pouvez-vous me dire quel est le nombre optimal de neurones dans une couche cachée ? Le calcul est long.

 

Chaque neurone de la couche cachée est responsable d'une face d'un cube multidimensionnel qui limite la zone allouée par le SN dans l'espace des caractéristiques. Naturellement, plus il y a d'arêtes (neurones), plus nous pouvons localiser avec précision la région d'intérêt... mais le plus long sera la longueur optimale de l'échantillon d'entraînement et non le fait qu'à cette longueur les intérêts du marché ne deviendront pas différents. Ainsi, le nombre optimal de neurones dans la couche cachée, est défini par la durée de vie caractéristique (mesurée en événements du Marché) des états quasi-stationnaires du Système. Malheureusement, il n'y a pas de réponse exacte à cette question. Seule une approche expérimentale sur un instrument particulier est possible. Mais le nombre minimal de neurones est connu précisément - 2.

P.S. Montre-moi la longueur du vecteur d'erreur.

Mon vecteur à deux têtes sur les barres horaires de l'EURUSD :

 

Je l'ai envoyée avec deux neurones dans une couche cachée pour compter les GBPUSD, j'attends depuis 30 minutes qu'elle revienne - :)

Et la longueur du vecteur d'erreur est quelque chose de nouveau... nous ne sommes pas passés par là - :)

 

Combien d'époques doit-il y avoir ?

 
300
 
Il doit y avoir un problème avec elle.
Raison: