Experts: Neurotest

 

Neurotest:

est un texte pour le réseau neutre et nous aimerions connaître votre avis.

Author: Mustafa Seyyid Sahin

 
Problèmes potentiels : Formation limitée : Le paramètre MaxEpochs est fixé à 1, ce qui limite le nombre d'itérations de formation du réseau à chaque tic. Il peut être intéressant d'augmenter cette valeur pour une meilleure optimisation. Risques liés à un spread élevé : La fonction qui ouvre les transactions les bloque si l'écart est trop élevé, mais il n'y a pas de logique pour réessayer si l'écart se normalise. Normalisation du volume minimum dans la fonction de normalisation d'entrée : Lors de la normalisation du volume des bougies, les entrées sont divisées par leurs valeurs avec l'ajout d'une petite constante (EPSILON), ce qui peut conduire à une normalisation inefficace lorsque l'on travaille avec de faibles volumes. Modèles de pénalité : Si le bénéfice journalier est inférieur à la valeur cible, une pénalité est activée, ce qui réduit le taux d'apprentissage. Cependant, il n'y a pas de logique détaillée qui expliquerait comment cela affecte la performance de l'EA à long terme. Recommandations : Envisagez d'améliorer le processus d'apprentissage du réseau neuronal en augmentant le nombre d'époques. Ajouter des tentatives d'ouverture d'une transaction lorsque le spread est normalisé. Réfléchir plus attentivement au mécanisme de pénalité pour éviter une réduction excessive du taux d'apprentissage.
 
IGOR IAREMA # :
Problèmes possibles : Formation limitée : Le paramètre MaxEpochs est égal à 1, ce qui limite le nombre d'itérations de formation du réseau à chaque tic. Il peut être intéressant d'augmenter cette valeur pour une meilleure optimisation. Risques liés aux spreads élevés : La fonction qui ouvre les transactions les bloque si l'écart est trop élevé, mais il n'y a pas de logique pour réessayer si l'écart se normalise. Normalisation du volume minimum dans la fonction de normalisation des données d'entrée : Lors de la normalisation du volume des bougies, les entrées sont divisées par leurs valeurs avec l'ajout d'une petite constante (EPSILON), ce qui peut conduire à une normalisation inefficace lorsque l'on travaille avec de faibles volumes. Modèles de pénalité : Si le bénéfice journalier est inférieur à la valeur cible, une pénalité est activée qui réduit le taux d'apprentissage. Cependant, il n'existe pas de logique détaillée qui expliquerait comment cela affecte la performance du conseiller à long terme. Recommandations : Envisager d'améliorer le processus de formation du réseau neuronal en augmentant le nombre d'époques. Ajouter des tentatives répétées d'ouverture d'une transaction lorsque l'écart est normalisé. Examiner plus attentivement le mécanisme de pénalité afin d'éviter une réduction excessive du taux d'apprentissage.

Bonjour IGOR IAREMA ,

Nous vous remercions pour vos commentaires détaillés et pour votre compréhension des problèmes potentiels. Nous avons examiné attentivement les points que vous avez soulevés :

  • Formation limitée : Nous prévoyons d'augmenter le paramètre MaxEpochs pour permettre une meilleure optimisation.
  • Risques liés aux spreads élevés : Nous allons mettre en place une logique permettant de réessayer les transactions lorsque le spread se normalise.
  • Normalisation du volume minimum : Nous optimisons la fonction de normalisation pour les faibles volumes afin d'obtenir des résultats plus efficaces.
  • Modèles de pénalité : La logique contrôlant le taux d'apprentissage sera affinée pour garantir des améliorations de performance à long terme.

Une mise à jour complète de ces améliorations est déjà en cours. Elle prend un peu plus de temps car les changements sont assez complexes, mais nous sommes convaincus que l'attente en vaudra la peine. Nous vous remercions de votre patience et de votre compréhension !

Meilleures salutations,
SM.S

 
Après avoir téléchargé le neurobook et les sources, j'aimerais savoir s'il existe une version entièrement en Python ? La version fournie pose problème et je pense surtout si les exécutions openCl ne peuvent pas se faire sur la machine. Je tente actuellement une conversion, mais c'est un peu titanesque !
Meilleures salutations à ceux qui ont déjà entrepris un tel travail, ou qui savent où trouver les sources d'une version Python.
 
À chaque fois, j'obtiens ceci dans le fichier journal : Aucun paramètre de réseau neuronal enregistré n'a été trouvé. Quelle peut en être la raison ?
 
Encho Enev réseau neuronal enregistré n'a été trouvé. Quelle peut en être la raison ?

Je ne l'ai pas encore exécuté, mais d'après le code, vous devez entraîner le réseau neuronal dans le testeur de stratégie avant de le placer sur un graphique en direct. L'avez-vous fait ?

 
ceejay1962 #:

Je ne l'ai pas encore exécutée, mais d'après le code, vous devez entraîner le réseau neuronal dans le testeur de stratégie avant de l'utiliser sur un graphique en direct. L'avez-vous fait ?

Non, la stratégie ne démarre toujours pas sur un graphique réel. Merci de votre compréhension.
 
Description et commentaires en russe (par deepseek.com)
Dossiers :