Les réseaux neuronaux. Questions des experts. - page 9

 
LeoV писал(а) >>

Jusqu'à quand devons-nous la former ? A l'erreur minimale ? Il faut comprendre qu'il s'agira d'un surentraînement à 100 %. Pas à l'erreur minimale ? Alors jusqu'à quoi ? Quel est le bénéfice ? Et pourquoi exactement à cette erreur ? Le bénéfice augmentera-t-il ou diminuera-t-il si nous diminuons légèrement l'erreur ? Et si vous augmentez l'erreur ?

Comme ceci.....))))

Jusqu'à l'erreur minimale. Pour éviter le "surentraînement" (un mot qui ne reflète pas du tout la signification du phénomène), le nombre de neurones du réseau doit être le plus petit possible. Après la formation, il existe des procédures telles que l'analyse de l'influence des entrées individuelles et la suppression des entrées faibles, ainsi que des procédures telles que la réduction du nombre de neurones. Comme pour le dire figurativement... de sorte que dans ce cerveau électronique, il n'y a pas d'espaces vides non affectés par la formation.

 
LeoV >>:
Ну это же не ответы, нужно понимать))). Это просто размышления "на тему" вобщем. Хорошо, берём НШ(не трейдер) или Солюшн, не важно, делаем сеть(не важно какую) и начинаем тренировать. До каких пор её тренируем? До минимальной ошибки? Нужно понимать, что это будет переобучение 100%. Не до минимальной ошибки? Тогда до какой? Какой будет при этом профит? И почему до именно этой ошибки? Если уменьшить немного ошибку профит увеличится или уменьшиться? А если увеличить ошибку?

Comment pas une réponse. La réponse.

joo a écrit >>

Disons que vous êtes intéressé par le fait que le TS distribue autant de bénéfices que possible et aussi souvent que possible, c'est-à-dire que vous essayez d'augmenter le pourcentage de transactions rentables et bien sûr le MO.

Dans un réseau formé sur ce principe, vous pouvez vous attendre à ce qu'il y ait également des bénéfices sur les OOS. Vous devez appliquer une erreur quadratique moyenne qui accentue le réseau sur les modèles qui contribuent à ces objectifs. En d'autres termes, le réseau se concentre sur des modèles spécifiques qui entraînent une sorte de conséquence.

Cependant, si vous utilisez l'erreur quadratique moyenne, il y a une "moyenne" des modèles, et non une accentuation.

Vous devez vous entraîner à l'erreur moyenne minimale. Et le surentraînement se produira si vous utilisez l'erreur quadratique moyenne (pas pour l'approximation). Pour l'approximation, plus l'erreur RMS est petite, mieux c'est.

Bien sûr, personne n'est susceptible de donner des réponses précises à vos questions, même s'il le voulait. J'ai seulement essayé de montrer que le choix de la fonction de fitness est presque une tâche plus importante qui déterminera les réponses à nos questions, que la sélection des valeurs d'entrée de la grille. Et en règle générale, elle se limite à des énumérations angoissantes et fastidieuses de données d'entrée.......

Et Integer a pris un peu d'avance sur la courbe pendant que j'écrivais. Je suis d'accord avec lui.

 
Integer писал(а) >>

Jusqu'à l'erreur minimale. Pour éviter le "surentraînement" (un mot qui ne reflète pas du tout la signification du phénomène), le nombre de neurones du réseau doit être aussi faible que possible. Après la formation, il existe des procédures telles que l'analyse de l'influence des entrées individuelles dans le réseau, et l'élimination des faibles, et une procédure telle que la réduction du nombre de neurones. Comme si, au sens figuré, ... de sorte que dans ce cerveau électronique, il n'y a pas d'espaces vides non affectés par la formation.

Et qu'entendez-vous par "reconversion" ?

 
joo писал(а) >>

Je suis d'accord avec vous, tout comme je suis d'accord avec Integer. Mais vous avez écrit vous-même -

>> il n'ya personne pour vous donner des réponses spécifiques à vos questions.
))))
 
LeoV писал(а) >>

Et qu'entendez-vous par le mot "reconversion" ?

Dans le contexte de l'application et de la formation des réseaux neuronaux, je ne le comprends pas du tout, il ne reflète pas la signification du phénomène. Comme ils écrivent sur les réseaux neuronaux, par exemple ici (et pas seulement) - http://www.exponenta.ru/soft/others/mvs/stud3/3.asp :

Un nombre insuffisant d'exemples peut entraîner un "surentraînement" du réseau, lorsque celui-ci donne de bons résultats sur des exemples d'apprentissage, mais de mauvais résultats sur des exemples de test soumis à la même distribution statistique.

Il s'agit d'entraîner le réseau sur moins d'exemples qu'il ne peut en accueillir. Elle devient en dents de scie et confuse si la situation ne ressemble pas exactement à l'expérience en dents de scie. "Notched" vient du mot "rote" - savoir par cœur, mais ne pas comprendre ou être capable d'appliquer l'information.

 
LeoV >>:

Я с вами согласен, точно так же как и с Integer. Но вы сами написали -

))))

Eh bien, quand même, je voulais dire en nombres spécifiques peu probables. :)

 
Integer писал(а) >>

Dans le contexte de l'application et de la formation des réseaux neuronaux, je ne le comprends pas du tout, il ne reflète pas la signification du phénomène. Comme ils écrivent sur les réseaux neuronaux, par exemple ici (et pas seulement) - http://www.exponenta.ru/soft/others/mvs/stud3/3.asp :

J'ai compris qu'il s'agissait d'entraîner un réseau sur moins d'exemples qu'il ne peut en accueillir. Cela devient en dents de scie et confus si la situation ne ressemble pas exactement à une expérience en dents de scie. "Par cœur" vient du mot "rote" - savoir par cœur, mais sans comprendre ni être capable d'appliquer l'information.

Le terme "sur-apprentissage", à mon avis, s'applique davantage à l'application des réseaux neuronaux sur les marchés financiers. Nous savons que le marché évolue dans le temps, que les modèles changent et qu'à l'avenir, le marché ne sera pas exactement le même que par le passé. Ainsi, lorsqu'un réseau apprend, il apprend trop bien le marché et n'est plus en mesure de travailler de manière adéquate à l'avenir - sur le marché qui a changé. C'est le "sur-apprentissage". Réduire le nombre de neurones est bien sûr une méthode pour éviter le "recyclage". Mais il ne fonctionne pas seul.

 
LeoV >>:

Ну это же не ответы, нужно понимать))). Это просто размышления "на тему" вобщем. Хорошо, берём НШ(не трейдер) или Солюшн, не важно(для "академических целей"), делаем сеть(не важно какую) и начинаем тренировать. До каких пор её тренируем? До минимальной ошибки? Нужно понимать, что это будет переобучение 100%. Не до минимальной ошибки? Тогда до какой? Какой будет при этом профит? И почему до именно этой ошибки? Если уменьшить немного ошибку профит увеличится или уменьшиться? А если увеличить ошибку?

Ну вот как-то так.....))))

Le réseau est entraîné à une erreur minimale sur l'échantillon de test, en ajustant les poids sur l'échantillon d'entraînement.

 
StatBars писал(а) >>

Le réseau est entraîné à une erreur minimale sur l'échantillon de test, en ajustant les poids sur l'échantillon d'entraînement.

C'est compréhensible. Plus l'erreur est petite, plus le bénéfice est grand ? Ou quelle est la corrélation ?

 
Integer >>:

До минимальной ошибки. Чтобы "переобучения" (слово совершенно не отражающее смысл явления) не было, количество нейронов в сети должно быть минимально возможным. После обучения существует такие процедуры, как анализ влияния отдельных входов сети и удаление слабовлиящих, и такая процедура, как сокращение количества нейронов. Как бы так образно ... чтобы в этом электронном мозге не оставалась пустых мест не затронутых обучением.

Le nombre de neurones ne joue pas toujours un rôle décisif, bien que le choix du nombre de neurones (qui, dans la plupart des cas, est minimal sans perte de précision) entraîne une réduction de l'erreur.

Influencer les entrées et supprimer celles qui sont inutiles peut souvent avoir un effet plus important que de sélectionner les neurones d'une couche.

Raison: