Les réseaux neuronaux, comment les maîtriser, par où commencer ? - page 11

 
Integer >> :

Si vous faisiez des graphiques et des animations 3D, écririez-vous votre propre 3DStudioMAX ?

Ce sont des choses différentes...


Je vous ai donné un exemple concret... essayez de changer la fonction d'erreur dans votre programme de réseau neuronal préféré...


En clair, vous voulez dire que 2DMAX est égal à Neuroshell en termes de fonctions et de taille de code ? ???.

bien, bien...

 
Solver.it писал(а) >> essayez de modifier la fonction d'erreur dans votre programme de réseau neuronal préféré...
Et ne permettez-vous pas l'idée suivante - pour obtenir un bénéfice avec ce programme, vous n'avez pas besoin de changer cette fonction d'erreur dans celui-ci ?
 
LeoV писал(а) >>
Et ne permettez-vous pas l'idée suivante - pour obtenir un bénéfice avec ce programme, vous n'avez pas besoin de modifier cette fonction d'erreur dans celui-ci ?

Grâce à cette gracieuse déclaration de votre part, nous savons maintenant que vous n'avez aucun concept d'optimisation dans vos kinspecks des meilleurs experts de NS, voire aucun.
Et vous, à votre tour, vous n'autorisez pas l'idée suivante - que vous vivez dans un pays quelque peu différent du nôtre,
et que, par conséquent, vous n'êtes pas censé disposer d'un logiciel permettant d'optimiser pleinement la création et l'utilisation de NN ?

 
Korey писал(а) >>

Grâce à cette gracieuse déclaration de votre part, nous savons maintenant que vous n'avez aucun et aucun concept d'optimisation dans vos kinspecks de NS's finest.

:-)

 
Korey писал(а) >>

Avez-vous compris ce que vous avez écrit ? )))

 

Peu importe comment vous tordez le NS, peu importe ce que vous donnez aux entrées, il n'y a pas de miracles, bien sûr !

Il s'avère donc que, d'une part, plus le nombre de couches de NS est important, plus son pouvoir prédictif est élevé, mais il est insensé de construire plus de trois couches - la grille à trois couches est déjà un approximateur universel. D'autre part, la boîte noire appelée NS ne fait que trouver et exploiter des processus quasi-stationnaires sur le marché. Il n'y a pas d'autre moyen de contourner le problème. Exactement, quasi-stationnaire, pas stationnaire du tout (il n'y a tout simplement pas de tels processus sur le marché) et pas non-stationnaire (de tels processus ne peuvent en principe pas être exploités). J'ai donné ci-dessus un lien pour dériver la relation optimale entre le nombre de synapses NS - w, la dimension de son entrée - d et la longueur optimale de l'échantillon d'entraînement P (4 ou 5 pages du sujet) : w^2=P*d

Par conséquent, plus la complexité du SN est grande, plus la longueur de l'échantillon d'entraînement doit être importante. Non seulement la complexité de la formation augmente comme P^3, mais les données peuvent aussi être insuffisantes ! Mais le plus grand piège se trouve là où on ne l'attend pas - les processus quasi-stationnaires (ceux que notre NS identifie dans le cotier et exploite ensuite) ont une durée de vie caractéristique (du tout, différente de zéro et plus petite que certains). Il est clair que sur un grand échantillon de formation, il y a une plus grande probabilité de changement du processus sélectionné... vous voyez ? Plus l'échantillon d'entraînement est court, mieux c'est - moins de risques de se faire avoir par un changement de sentiment sur le marché ! Ici, il semble que la réponse à la question "Qu'est-ce qui est mieux - un NS à 2 couches avec un court échantillon d'entraînement, ou un puissant 3 avec trois universités derrière lui (pendant l'apprentissage, tout devient inutile) ?", sera donnée par une simple expérience.

Pour cela, j'ai jeté trois grilles - 1,2 et 3 dans Mathcad, et j'ai comparé les résultats de la prédiction d'un signe des incréments de kotier un compte à l'avance (j'ai rassemblé les statistiques de 100 expériences indépendantes). Les résultats sont les suivants :

1 - p=10% de signes correctement devinés (probabilité=1/2+p).

2 - 15-16%

3 - 12%

Il y a quelques paramètres libres ici : la dimension de l'entrée et le nombre de neurones dans la ou les couches. Le premier paramètre était le même pour toutes les architectures, le second était choisi personnellement. Nous constatons que la grille NS à trois couches n'est pas une panacée, et peut-être que pour nous, traders, la meilleure option pour l'unité analytique MTS est une grille à deux couches - du point de vue de la précision maximale des prévisions et des exigences minimales en matière de complexité de formation (puissance du RS, historique important et sa non-croissance).

 
Neutron писал(а) >>

Peu importe comment vous tordez le NS, peu importe ce que vous donnez aux entrées, il n'y a pas de miracles, bien sûr !

Il s'avère donc que, d'une part, plus le nombre de couches de NS est important, plus son pouvoir prédictif est élevé, mais il est insensé de construire plus de trois couches - la grille à trois couches est déjà un approximateur universel. D'autre part, la boîte noire appelée NS ne fait que trouver et exploiter des processus quasi-stationnaires sur le marché. Il n'y a pas d'autre moyen de contourner le problème. Exactement, quasi-stationnaire, pas stationnaire du tout (il n'y a tout simplement pas de tels processus sur le marché) et pas non-stationnaire (de tels processus ne peuvent en principe pas être exploités). J'ai donné ci-dessus un lien pour dériver la relation optimale entre le nombre de synapses NS - w, la dimension de son entrée - d et la longueur optimale de l'échantillon d'entraînement P (4 ou 5 pages du sujet) : w^2=P*d

Par conséquent, plus la complexité du SN est grande, plus la longueur de l'échantillon d'entraînement doit être importante. Non seulement la complexité de la formation augmente comme P^3, mais les données peuvent aussi être insuffisantes ! Mais le plus grand piège se trouve là où on ne l'attend pas - les processus quasi-stationnaires (ceux que notre NS identifie dans le cotier et exploite ensuite) ont une durée de vie caractéristique (du tout, différente de zéro et plus petite que certains). Il est clair que sur un échantillon de formation plus grand, il y a une plus grande probabilité que le processus sélectionné change... vous voyez ? Plus l'échantillon d'entraînement est court, mieux c'est - moins de risques de se faire avoir par un changement de sentiment sur le marché ! Ici, il semble que la réponse à la question "Qu'est-ce qui est mieux - un NS à 2 couches avec un court échantillon d'entraînement, ou un puissant 3 avec trois universités derrière lui (pendant l'apprentissage, tout devient inutile) ?", sera donnée par une simple expérience.

Pour cela, j'ai jeté trois grilles - 1,2 et 3 dans Mathcad, et j'ai comparé les résultats de la prédiction d'un signe des incréments de kotier un compte à l'avance (j'ai rassemblé les statistiques de 100 expériences indépendantes). Les résultats sont les suivants :

1 - p=10% de signes correctement devinés (probabilité=1/2+p).

2 - 15-16%

3 - 12%

Il y a quelques paramètres libres ici : la dimension de l'entrée et le nombre de neurones dans la ou les couches. Le premier paramètre était le même pour toutes les architectures, le second était choisi personnellement. Il est clair que la grille NS à trois couches n'est pas une panacée, et peut-être que pour nous, traders, la meilleure option pour l'unité analytique MTS est une grille à deux couches - du point de vue de la précision maximale des prévisions et des exigences minimales en matière de complexité de la formation (puissance du RS, historique important et sa non-croissance).

Je me demande si quelqu'un a essayé d'utiliser NS pour prédire les numéros de loterie ?

 

gpwr, tu te moques de tout le monde ! - il s'agit de prédire le numéro de la loterie. Et s'il vous plaît, retirez la citation de mon message - cela ajoutera encore plus de localisme à votre message :-)

 
Neutron писал(а) >>

J'ai déjà donné ci-dessus un lien vers la conclusion de la relation optimale entre le nombre de synapses NS - w, sa dimension d'entrée - d et la longueur optimale de l'échantillon d'entraînement P (4 ou 5 pages du sujet) : w^2=P*d

La taille du réseau, la capacité d'apprentissage et de reconnaissance dépendent fortement de l'architecture du réseau. A laquelle faites-vous référence ? Mot, récidive, VNS ou peut-être MSUA ?
 
Nous parlons d'un perseptron classique à plusieurs couches, non linéaire, à sortie unique (achat-vente).
Raison: