Les réseaux neuronaux. Questions des experts. - page 4

 
joo писал(а) >> Si NS le permet, essayez d'utiliser l'erreur quadratique moyenne au lieu de rms. N'oubliez pas de nous faire part de vos impressions.

Le fait est qu'il n'y a pas d'informations sur la relation ou les modèles entre les erreurs et les bénéfices. De plus, si cette relation est claire et décrite dans la section Formation, la section POE ne contient aucune information à son sujet. Logiquement, il semble que plus l'erreur est petite, plus le bénéfice est grand, mais dans la pratique, ce n'est pas le cas et cela est prouvé par de nombreuses expériences (pas seulement les miennes, bien sûr). L'erreur ou l'erreur quadratique moyenne, peu importe.

 

Bonjour !

Pour LeoV, le point est qu'il n'y a pas de prévision en tant que telle. Selon moi, le pronostic est la clause de demain ou d'autres valeurs du FUTUR. Il n'y a pas d'avenir ici) L'image ci-dessus est plutôt une tâche de classification, si vous voulez. Si l'on connaît l'EMa du rang 2, si l'on connaît le rang 1 et son EMa, et s'ils sont très étroitement corrélés. C'était la tâche à accomplir. Je suis très sceptique quant à la prévision à l'aide de réseaux neuronaux (sur les marchés financiers).

A joo. Ok, je vais essayer, mais je pense que le résultat (en reconvertissant les prieurs en valeur absolue) donnera le même résultat au final. Je l'ai déjà vérifié sur d'autres choses et le résultat était le même).

Pour les entiers, il n'y avait pas de normalisation. En ce qui concerne les poids, les neurones et le nombre d'entrées, c'est n'importe quoi (ou peut-être pas) je donne seulement 3 valeurs à l'entrée et fais un neurone et une couche cachée, le résultat est 2-005e. N'importe quel autre nombre d'entrées et de neurones et le même résultat.

p.s. Il serait intéressant, si quelqu'un ose exécuter les données ci-dessus dans leurs programmes et essayer d'obtenir un résultat. Je me demande juste ce qu'il en sera pour les autres. Que nous pouvons comparer. Quelqu'un est intéressé ? )))))

 
mrstock >>:

to integer Нормализации не было. Что касается весов, нейронов и кол-ва входов, то тут вообще бред (а может и не бред) даю на вход всего 3 значения и делаю один нейрон и одни скрытый слой результат 2-005е. ЛЮБОЕ другое кол--во входов и нейронов и тот же результат.

Quelles sont exactement les valeurs (valeurs de quoi) ?

LeoV a écrit(a) >>

Le fait est qu'il n'y a pas d'informations sur la corrélation ou les schémas entre les erreurs et les bénéfices. De plus, si cette relation est claire et décrite dans le domaine de la formation, dans le domaine du SO, il n'y a aucune information à ce sujet. Logiquement, il semble que plus l'erreur est petite, plus le bénéfice est grand, mais dans la pratique, ce n'est pas le cas et cela est prouvé par de nombreuses expériences (pas seulement les miennes, bien sûr). L'erreur ou l'erreur quadratique moyenne n'est pas importante.

Quel type d'erreur utilisez-vous exactement ? Si vous en avez envie, et si le topicstarter n'y voit pas d'inconvénient, je vais dire pourquoi je pense qu'il y a une différence.

 
gumgum >>:


Попробуйте при этом поиграть с параметром:

- параметр наклона сигмоидальной функции активации.

Merci. Je joue avec. Et ce, depuis longtemps.

double GetAlfa(double x, double y)
  { 
    return(NormalizeDouble((-1.0)* MathLog((1.0/y)-1) / x, ZDigits));
  }

x est la valeur absolue maximale de 97% de l'échantillon d'apprentissage (pour l'entrée actuelle) ;

y - valeur normalisée (la mienne est 0.99) correspondant à x

La sortie est l'alpha de travail pour l'entrée actuelle.

 
joo писал(а) >> Quelle erreur utilisez-vous exactement ? Si vous en avez envie, et si le responsable du sujet ne s'y oppose pas, je vous dirai pourquoi je pense qu'il y a une différence.

Ces erreurs sont toutes liées aux mathématiques, donc c'est la vie... ))))

 
LeoV >>:

Все эти ошибки полюбому математически связаны, поэтому се ля ви...))))

Je ne veux pas te prouver quoi que ce soit. Je voulais juste entendre la réponse, mais pour une raison quelconque, vous vous en détournez. :)

 
joo писал(а) >>

Je ne veux pas te prouver quoi que ce soit. Je voulais juste entendre la réponse, mais pour une raison quelconque, vous vous en détournez. :)

A propos de l'erreur ? Je n'utilise pas du tout l'erreur. Je ne le regarde même pas. Je regarde la rentabilité, la régularité de l'action, le drawdown, le nombre de transactions et autres non-sens....)))).

 
LeoV >>:

По поводу ошибки? Ошибку вообще не использую. Даже не смотрю на неё. Смотрю на доходность, плавность эквити, просадку, колличесво сделок и прочую ерунду....))))

J'ai juste un soupçon, non, une certitude, que vous utilisez l'erreur RMS dans l'entraînement du réseau (NeuroShel ne permet pas de faire autrement).

 
joo писал(а) >>

J'ai juste un soupçon, non, une certitude, que vous utilisez l'erreur RMS dans l'entraînement du réseau (NeuroShel ne permet pas de faire autrement).

Ce n'est pas pour les marchés financiers. Il n'a pas de critère d'arrêt. S'arrêter en fonction de l'ampleur de l'erreur ? Je ne comprends pas comment))))

 

Le critère d'erreur (fonction de fitness, si vous préférez) utilisé détermine directement les résultats de la formation.

PS mrstock, d'ailleurs, ne peut pas changer cela non plus, Statistica ne le permet pas.

Raison: