Utilisation des réseaux neuronaux dans le trading. - page 12

 
registred >> :

... Quoi, personne n'a jamais résolu le problème des réseaux neuronaux en forex ?

Pourquoi personne ?

Ceux qui ont décidé, gardez le silence :)

1.

2.

Et les autres doivent travailler avec des neurones protéiques :(

 
goldtrader >> :

Pourquoi personne ?

Ceux qui se sont décidés se taisent :)

1.

2.

Et les autres doivent travailler avec des neurones protéiques :(

Donc ce dont vous discutez ici est inutile, il s'avère en fait... Personnellement, je n'ai pas utilisé les neurones dans le domaine du forex, mais j'ai traité avec eux sur d'autres sujets. J'aimerais les essayer pour les échanger, pour ainsi dire, mais je n'ai pas encore le temps. C'est pourquoi je ne peux rien dire en ce qui concerne le Forex. La formation d'un réseau est une chose très complexe. Je veux dire qu'il est souvent très difficile de trouver une généralisation qualitative, bien sûr, nous devons réaliser de nombreuses expériences en augmentant le nombre de neurones dans la couche cachée, en augmentant la taille de l'échantillon, en regardant comment le réseau est piégé dans un minimum local peu profond et en essayant de le sortir de là. Et après tout cela, il se peut que rien ne se passe. En général, il s'agit en fait de beaucoup de difficultés.

 
registred >> :

Donc ce dont vous discutez ici est inutile, il s'avère vraiment...

Dans mon message ci-dessus, sous les numéros 1 et 2, il y a des liens que vous n'avez pas suivis, à en juger par votre réponse.

Les conseillers en réseaux neuronaux y font du commerce.

Le NS n'est pas l'outil le plus facile pour réaliser des profits sur les marchés financiers, mais il fonctionne bien dans les bonnes mains.

 
goldtrader >> :

Dans mon message ci-dessus, sous les numéros 1 et 2, il y a des liens que vous n'avez pas suivis, à en juger par votre réponse.

C'est là que les conseillers en réseaux neuronaux interviennent.

Le NS n'est pas l'outil le plus facile pour réaliser des profits sur les marchés financiers, mais il fonctionne bien entre des mains habiles.

Je l'étais, je traîne souvent là-bas sur euroflood. J'ai mes propres systèmes de prédiction, ils ne sont pas basés sur des réseaux neuronaux. En fait, les réseaux neuronaux sont juste un sujet intéressant. Je sais approximativement ce que j'exigerais d'un réseau, c'est juste que, comme je l'ai dit, je n'ai pas encore le temps pour toute cette programmation. En tout cas, je suis satisfait de mon système jusqu'à présent. La difficulté consiste à mettre en place tout ce réseau neuronal. Comme je l'ai dit, il faut trop de temps pour apprendre. J'appliquerais d'autres choses que la méthode d'optimisation par gradient.

 
registred писал(а) >>

J'appliquerais d'autres choses que la méthode d'optimisation du gradient.

Si ce n'est pas un secret, lequel ?

 
registred писал(а) >> La formation en réseau est une chose très compliquée. Vous pouvez faire en sorte qu'un réseau soit sur-entraîné ou sous-entraîné, c'est-à-dire qu'il est souvent difficile de trouver une généralisation qualitative, vous devez faire beaucoup d'expériences en augmentant le nombre de neurones dans une couche cachée, en augmentant la taille de l'échantillon lui-même, en regardant comment le réseau se retrouve dans un minimum local peu profond et en essayant de le sortir de là. Et après tout cela, il se peut que rien ne se passe. En général, ils sont en fait très complexes.

C'est pratiquement une chose fondamentale pour les réseaux neuronaux. J'ai essayé de soulever ce problème, mais il s'avère que peu de personnes s'y intéressent. Je suis plus intéressé par l'architecture et la sophistication des réseaux neuronaux, bien que cette question ait été résolue il y a longtemps et qu'il s'avère inutile de la poursuivre. L'augmentation du nombre de neurones dans une couche cachée entraîne une augmentation de la taille de l'échantillon - l'augmentation de la taille de l'échantillon entraîne un sous-entraînement du réseau car il y a trop de règles sur un échantillon historique plus grand que le réseau ne peut pas comprendre et apprendre. Par conséquent, il reste bloqué dans un minimum local dont il est impossible de sortir - il y a soit sur-apprentissage, soit sous-apprentissage. Il est plus probable qu'il soit surentraîné. Par conséquent, l'augmentation du nombre de neurones a un effet négatif sur le fonctionnement du réseau neuronal à l'avenir.

 
LeoV писал(а) >>

C'est pratiquement une chose fondamentale pour les réseaux neuronaux. J'ai essayé de soulever ce problème, mais il s'avère que peu de personnes s'y intéressent. Je suis plus intéressé par l'architecture et la sophistication des réseaux neuronaux, bien que cette question ait été résolue il y a longtemps et qu'il s'avère inutile de la poursuivre. L'augmentation du nombre de neurones dans une couche cachée entraîne une augmentation de la taille de l'échantillon - l'augmentation de la taille de l'échantillon entraîne un sous-entraînement du réseau car il y a trop de règles sur un échantillon historique plus grand que le réseau ne peut pas comprendre et apprendre. Par conséquent, il reste bloqué dans un minimum local dont il est impossible de sortir - il y a soit sur-apprentissage, soit sous-apprentissage. Le sur-apprentissage est plus probable. Par conséquent, l'augmentation du nombre de neurones a un effet négatif sur le fonctionnement du neuronet à l'avenir.

En tant que praticien expérimenté, avez-vous trouvé les limites ? Quelle est, à votre avis, la taille optimale de l'ensemble d'entraînement, la structure et le nombre d'entrées ?

 
StatBars >> :

Si ce n'est pas un secret, lequel est-ce ?

Si vous prenez les réseaux neuronaux, les réseaux neuronaux à approximation de noyau sont meilleurs, ils apprennent rapidement.

 
LeoV >> :

C'est pratiquement une chose fondamentale pour les réseaux neuronaux. J'ai essayé de soulever ce problème, mais il s'avère que peu de personnes s'y intéressent. Je suis plus intéressé par l'architecture et la sophistication des réseaux neuronaux, bien que cette question ait été résolue il y a longtemps et qu'il s'avère inutile de la poursuivre. L'augmentation du nombre de neurones dans une couche cachée entraîne une augmentation de la taille de l'échantillonnage - l'augmentation de la taille de l'échantillonnage entraîne un sous-entraînement du réseau car il y a trop de règles sur un échantillonnage historique plus important que le réseau ne peut pas comprendre et apprendre. Par conséquent, il reste bloqué dans un minimum local dont il est impossible de sortir - il y a soit sur-apprentissage, soit sous-apprentissage. Il est plus probable qu'il soit surentraîné. Par conséquent, l'augmentation du nombre de neurones a un effet négatif sur le fonctionnement du réseau neuronal à l'avenir.

Le réseau trouve presque toujours un minimum local, il est généralement assez profond et minimalement nécessaire pour résoudre une tâche donnée. Quant à la couche cachée, tout dépend de la dimension des paramètres d'entrée, qui représentent essentiellement la complexité du problème à résoudre. Par exemple, il se peut qu'il n'y ait pas assez de neurones dans la couche cachée ou qu'il n'y ait pas assez d'exemples pour une dimensionnalité donnée des entrées. En un mot, il est nécessaire d'effectuer des tests en augmentant progressivement le nombre de neurones de la couche cachée à partir du 1er neurone et ainsi de suite, jusqu'à ce que l'erreur de généralisation requise soit atteinte.

 

Supposons que nous ayons une certaine dépendance à un seul paramètre, telle que y(x)=F(x), où la forme générale de cette dépendance F nous est inconnue et qui génère la série de prix, ou plutôt, la dépendance de l'augmentation attendue des prix par rapport à la lecture de certains de nos indicateurs. Dans cette situation, nous pouvons supposer que la dépendance est linéaire, par exemple, et connaissant plusieurs valeurs antérieures des incréments de prix y[i] et des lectures de l'indicateur x[i], nous pouvons facilement résoudre le problème de la recherche de l'approximation linéaire optimale (au sens du moindre écart) de la loi inconnue F par le polynôme du premier degré y(x)=a*x+b . Ensuite, les coefficients a et b sont recherchés par la méthode des moindres carrés et sont égaux :

Nous pouvons aller plus loin, et approximer la dépendance inconnue (loi) par un polynôme du second degré y(x)=a2*x^2+a1*x+a0 ou même nième! Mais tout ceci est pour la fonction d'une variable ou, dans notre cas, d'un indicateur... Si nous prévoyons d'utiliser deux indicateurs, l'obtention d'une solution analytique pour l'approximation des données d'entrée par un plan (fonction de deux variables) est déjà plus difficile, et nous ne pouvons plus trouver d'expression analytique pour la surface d'ordre n la plus proche de F(x1,x2) en cas de degré croissant du polynôme. Mais ce problème est facilement résolu par NS avec deux entrées x1,x2, une couche cachée et suffisamment de neurones. En outre, nous augmentons le nombre d'entrées à 10-20 et nous avons une surface de gipper d'ordre arbitraire dans un espace de caractéristiques à 10-20 dimensions - c'est un rêve !

En fait, notre perception du monde qui nous entoure est basée sur le même principe : nous construisons inconsciemment des surfaces de type "gipper" dans notre tête, qui reflètent la réalité - notre expérience - de manière optimale. Chaque point de cette feuille-surface imaginaire est une décision responsable dans l'une ou l'autre situation de la vie, pas toujours exacte, mais presque toujours optimale...

C'est vrai ! Je m'emporte un peu. En bref, il est difficile, voire impossible, de trouver quelque chose de mieux que Neuronka pour l'analyse des prix, à moins qu'il ne s'agisse d'informations privilégiées.

Raison: