Comment former correctement les valeurs d'entrée pour le NS. - page 24

 
Reshetov писал (а) >>

Et enfin, pour les intellos qui pensent que les capacités d'interpolation de NS sont nécessaires pour le commerce, je peux fournir un contre-argument concret. Prenez n'importe quel indicateur ou oscillateur de redécoupage et vous obtiendrez une interpolation étonnante sur l'histoire sans réseaux neuronaux ni architectures compliquées. Bien entendu, les traders évitent de redessiner les indices car ce qui convient à l'interpolation ou à l'approximation ne convient pas à l'extrapolation dans des conditions de non-stationnarité.

C'est absurde... Qu'est-ce qu'un indicateur de redécoupage a à voir avec l'interpolation et les prévisions d'avenir ???

 
Reshetov писал (а) >>

Et enfin, pour les intellos qui pensent que les capacités d'interpolation de NS sont nécessaires pour le commerce, je peux fournir un contre-argument concret. Il suffit de prendre n'importe quel indicateur ou oscillateur de redécoupage et vous obtiendrez une interpolation étonnante sur l'histoire sans réseaux neuronaux ni architectures compliquées. Bien entendu, les traders évitent de redessiner les indices car ce qui convient à l'interpolation ou à l'approximation ne convient pas à l'extrapolation dans des conditions de non-stationnarité.

Vous ne comprenez pas bien ce qui est approximé. Il existe un vecteur d'entrée X de dimension N et un vecteur de sortie Y de dimension M. NS établit une relation entre eux, c'est-à-dire qu'il se rapproche de la dépendance Y = F(X). Y peut être n'importe quoi, même triple, NS s'en moque, il résout exactement le problème d'approximation F(X) sur l'échantillon d'entraînement.

 

LE REDÉCOUPAGE EST L'OPIUM DU PEUPLE ! !! ))))

 
Mathemat писал (а) >>
Je renforcerais même ce conseil : divisez par 10. Pour une raison quelconque, le fil de discussion sur la résonance stochastique me vient à l'esprit. L'entraînement du maillage jusqu'au bout peut conduire la fonction cible à un minimum profond, c'est-à-dire à un état stable. Les états stables ne sont pas du tout typiques des marchés financiers. Elles sont quasi-stables, c'est-à-dire telles qu'elles sont prêtes à se transformer en catastrophe (tendance) à tout moment sous l'influence du moindre "bruit". Mais ce n'est qu'une réflexion philosophique...

À mon avis, il y a un malentendu sur la nature de l'état des SN, qui peut être décrit comme "surentraîné" et "sous-entraîné". Ces termes font référence à des traits qui relient la longueur de l'échantillon d'apprentissage, le nombre de paramètres libres (synapses) d'un SN donné et l'ampleur de l'erreur de généralisation sur l'ensemble de test. Si la longueur de l'échantillon est comparable au nombre de poids ajustables (dans la limite inférieure ou égale), alors sur l'échantillon d'entraînement, nous obtiendrons une correspondance exacte de la réponse de NS aux vecteurs d'entrée, mais sur l'échantillon de test, nous obtiendrons un non-sens complet ! C'est un exemple de réseau surentraîné. Si la longueur de l'échantillon d'entraînement est trop longue (la longueur est une question distincte), nous obtiendrons une mauvaise correspondance sur l'échantillon d'entraînement (à la limite, nous ne déterminerons que la moyenne de l'échantillon). Sur l'échantillon test, nous obtiendrons la même chose - la moyenne.

Comme on peut le constater, le nombre d'époques de formation est hors de question. De plus, pour atteindre un minimum global (apprentissage NS), nous devons, parmi toutes les solutions possibles du système d'équations non linéaires redéfini (ce que fait NS), choisir celle qui nous donnera l'erreur cumulée la plus faible (qui satisfera au moins TOUTES les équations du système). Cette condition est bien sûr satisfaite par la solution (poids trouvés des synapses) qui tend vers les limites - obtenues lorsque le nombre d'époques d'apprentissage tend vers l'infini.

Il ne faut donc pas confondre le sur-entraînement ou le sous-entraînement de NS avec le nombre d'époques d'entraînement - ce dernier doit toujours être raisonnablement grand (le nombre exact doit être déterminé expérimentalement).

J'ai rencontré une discussion sur le "problème de l'arrêt précoce" dans la littérature, mais j'ai l'impression que les auteurs ne comprennent pas bien la nature de ce qu'ils écrivent. En effet, si nous prenons une situation où la longueur de l'échantillon d'entraînement est inférieure à la longueur optimale, alors dans le processus d'entraînement, une situation se produira, où l'erreur sur l'ensemble de test diminuera d'abord, puis, avec une augmentation supplémentaire du nombre d'époques d'entraînement, recommencera à augmenter... Eh bien, c'est une autre histoire, camarades !

 

Je vais me retirer maintenant que suffisamment de grands de NN se sont réunis ici. Mon opinion est insignifiante, car je suis un amateur de réseaux nerveux.

Je n'ai même pas parlé du rapport entre les entrées et les degrés de liberté, en supposant qu'il soit d'au moins 10 comme le recommande la théorie. J'ai seulement parlé du moment où la TF à la section de vérification passe par le minimum. Elle semble être décrite assez clairement par Shumsky, si je ne me trompe pas.

 
Mathemat писал (а) >>

Je vais me retirer maintenant que suffisamment de grands de NN se sont réunis ici. Mon opinion est insignifiante, car je suis un amateur de réseaux nerveux.

Je n'ai même pas parlé du rapport entre les entrées et les degrés de liberté, en supposant qu'il soit d'au moins 10 comme le recommande la théorie. J'ai seulement parlé du moment où la TF à la section de vérification passe par le minimum. Si je ne me trompe pas, Shumsky l'a également décrit de manière très vivante.

Un diplôme de mathématiques ne ferait pas de mal non plus, ne vous laissez pas décourager :) . Je pense que d'autres personnes se joindront à cette demande.

 
Mathemat писал (а) >>
Je renforcerais encore ce conseil : divisez par 10. Pour une raison quelconque, une branche sur la résonance stochastique me vient à l'esprit. L'entraînement du maillage jusqu'au bout peut conduire la fonction cible à un minimum profond, c'est-à-dire à un état stable. Les états stables ne sont pas du tout typiques des marchés financiers. Elles sont quasi-stables, c'est-à-dire telles qu'elles sont prêtes à se transformer en catastrophe (tendance) à tout moment sous l'influence du moindre "bruit". Mais ce ne sont que des réflexions philosophiques...

Eh bien, je veux dire la même chose. C'est juste que le terme "état d'équilibre" a été utilisé à la place du terme populaire "état stationnaire". Par ces deux termes, on entend que les données statistiques (d'ajustement) sont proches des probabilités. Mais toute personne ayant eu affaire à des instruments financiers sait très bien que les statistiques ne leur sont pas applicables en raison de la non-stationnarité.


De manière empirique, je constate que la grille doit être ré-entraînée d'environ un tiers. Mais là encore, tout dépend de l'adéquation des apports. Il est possible que d'autres n'aient empiriquement besoin d'être formés qu'à hauteur de 10%.

 
Reshetov писал (а) >>

C'est aussi ce que je veux dire. C'est juste que le terme "steady-state" a été utilisé au lieu du terme populaire "steady". Par ces deux termes, on entend que les données statistiques (d'ajustement) sont proches des probabilités. Mais toute personne ayant eu affaire à des instruments financiers sait très bien que les statistiques ne leur sont pas applicables en raison de la non-stationnarité.


De manière empirique, je constate que la grille doit être ré-entraînée d'environ un tiers. Mais là encore, tout dépend de l'adéquation des apports. Il est possible que d'autres n'aient empiriquement besoin de s'entraîner que de 10%.


Selon Haikin, il peut y avoir une divergence entre les résultats de l'entraînement complet sur l'échantillon d'entraînement et sur l'échantillon de test uniquement si le nombre de motifs n'est pas assez élevé.

S'il y a suffisamment de modèles, l'entraînement complet produit de meilleurs résultats pour l'échantillon de test que pour le point d'arrêt précoce, comme mentionné ci-dessus.

D'après mon expérience, j'ai tendance à croire ces résultats.



Quant au réseau neuronal linéaire, s'il a réussi à obtenir des résultats positifs avec un degré de confiance suffisant, il ne peut y avoir qu'une seule conclusion : un réseau neuronal est inutile.

 
TheXpert писал (а) >>

C'est absurde... Qu'est-ce que l'indicateur de redécoupage a à voir avec l'interpolation et la prévision du futur ?

Cher Monsieur, où ai-je prétendu que l'interpolation est liée au futur ? Allez voir un oculiste et lisez attentivement les messages au lieu de lancer des expressions à tort et à travers. J'ai signalé et je répète pour les particulièrement doués que l'extrapolation est nécessaire pour l'avenir.


Mon message était en réponse au message de rip:


------------------ Citation ------------------------


rip 14.07.2008 00:01
Reshetov a écrit (a) >>

Bien. L'architecture, avec des entrées appropriées, n'est plus un problème. On pourrait dire : les entrées sont tout, l'architecture n'est rien.


Ici, ces messieurs ont pris des entrées normales et ont obtenu des résultats appropriés avec MTS "Combo" :

Je suis d'accord avec vous dans une certaine mesure. Mais l'architecture du réseau joue un rôle important... par exemple, les réseaux RBF sont bien meilleurs pour résoudre certaines tâches d'interpolation.

 
TheXpert писал (а) >>

Selon Heikin, une divergence entre les résultats d'un entraînement complet sur un échantillon d'entraînement et un échantillon de test ne peut se produire que si le nombre de motifs n'est pas assez important.

M. Nerd, les gens normaux ont leur propre cerveau et leur propre expérience, tandis que les nerds citent d'autres nerds parce qu'ils n'ont pas de cerveau à eux et qu'il ne peut pas y en avoir.


Haykin a très probablement entraîné le réseau dans un environnement stationnaire, d'où ses conclusions. Dans un environnement non stationnaire, le réseau peut ne pas apprendre du tout si on lui fournit trop de modèles car, par exemple, dans le commerce, un modèle indique aujourd'hui d'acheter et la fois suivante de vendre. Parce que toute entrée a une certaine probabilité de faux signaux.