Les réseaux neuronaux, comment les maîtriser, par où commencer ? - page 11
Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
Si vous faisiez des graphiques et des animations 3D, écririez-vous votre propre 3DStudioMAX ?
Ce sont des choses différentes...
Je vous ai donné un exemple concret... essayez de changer la fonction d'erreur dans votre programme de réseau neuronal préféré...
En clair, vous voulez dire que 2DMAX est égal à Neuroshell en termes de fonctions et de taille de code ? ???.
bien, bien...
Et ne permettez-vous pas l'idée suivante - pour obtenir un bénéfice avec ce programme, vous n'avez pas besoin de modifier cette fonction d'erreur dans celui-ci ?
Grâce à cette gracieuse déclaration de votre part, nous savons maintenant que vous n'avez aucun concept d'optimisation dans vos kinspecks des meilleurs experts de NS, voire aucun.
Et vous, à votre tour, vous n'autorisez pas l'idée suivante - que vous vivez dans un pays quelque peu différent du nôtre,
et que, par conséquent, vous n'êtes pas censé disposer d'un logiciel permettant d'optimiser pleinement la création et l'utilisation de NN ?
Grâce à cette gracieuse déclaration de votre part, nous savons maintenant que vous n'avez aucun et aucun concept d'optimisation dans vos kinspecks de NS's finest.
:-)
Avez-vous compris ce que vous avez écrit ? )))
Peu importe comment vous tordez le NS, peu importe ce que vous donnez aux entrées, il n'y a pas de miracles, bien sûr !
Il s'avère donc que, d'une part, plus le nombre de couches de NS est important, plus son pouvoir prédictif est élevé, mais il est insensé de construire plus de trois couches - la grille à trois couches est déjà un approximateur universel. D'autre part, la boîte noire appelée NS ne fait que trouver et exploiter des processus quasi-stationnaires sur le marché. Il n'y a pas d'autre moyen de contourner le problème. Exactement, quasi-stationnaire, pas stationnaire du tout (il n'y a tout simplement pas de tels processus sur le marché) et pas non-stationnaire (de tels processus ne peuvent en principe pas être exploités). J'ai donné ci-dessus un lien pour dériver la relation optimale entre le nombre de synapses NS - w, la dimension de son entrée - d et la longueur optimale de l'échantillon d'entraînement P (4 ou 5 pages du sujet) : w^2=P*d
Par conséquent, plus la complexité du SN est grande, plus la longueur de l'échantillon d'entraînement doit être importante. Non seulement la complexité de la formation augmente comme P^3, mais les données peuvent aussi être insuffisantes ! Mais le plus grand piège se trouve là où on ne l'attend pas - les processus quasi-stationnaires (ceux que notre NS identifie dans le cotier et exploite ensuite) ont une durée de vie caractéristique (du tout, différente de zéro et plus petite que certains). Il est clair que sur un grand échantillon de formation, il y a une plus grande probabilité de changement du processus sélectionné... vous voyez ? Plus l'échantillon d'entraînement est court, mieux c'est - moins de risques de se faire avoir par un changement de sentiment sur le marché ! Ici, il semble que la réponse à la question "Qu'est-ce qui est mieux - un NS à 2 couches avec un court échantillon d'entraînement, ou un puissant 3 avec trois universités derrière lui (pendant l'apprentissage, tout devient inutile) ?", sera donnée par une simple expérience.
Pour cela, j'ai jeté trois grilles - 1,2 et 3 dans Mathcad, et j'ai comparé les résultats de la prédiction d'un signe des incréments de kotier un compte à l'avance (j'ai rassemblé les statistiques de 100 expériences indépendantes). Les résultats sont les suivants :
1 - p=10% de signes correctement devinés (probabilité=1/2+p).
2 - 15-16%
3 - 12%
Il y a quelques paramètres libres ici : la dimension de l'entrée et le nombre de neurones dans la ou les couches. Le premier paramètre était le même pour toutes les architectures, le second était choisi personnellement. Nous constatons que la grille NS à trois couches n'est pas une panacée, et peut-être que pour nous, traders, la meilleure option pour l'unité analytique MTS est une grille à deux couches - du point de vue de la précision maximale des prévisions et des exigences minimales en matière de complexité de formation (puissance du RS, historique important et sa non-croissance).
Peu importe comment vous tordez le NS, peu importe ce que vous donnez aux entrées, il n'y a pas de miracles, bien sûr !
Il s'avère donc que, d'une part, plus le nombre de couches de NS est important, plus son pouvoir prédictif est élevé, mais il est insensé de construire plus de trois couches - la grille à trois couches est déjà un approximateur universel. D'autre part, la boîte noire appelée NS ne fait que trouver et exploiter des processus quasi-stationnaires sur le marché. Il n'y a pas d'autre moyen de contourner le problème. Exactement, quasi-stationnaire, pas stationnaire du tout (il n'y a tout simplement pas de tels processus sur le marché) et pas non-stationnaire (de tels processus ne peuvent en principe pas être exploités). J'ai donné ci-dessus un lien pour dériver la relation optimale entre le nombre de synapses NS - w, la dimension de son entrée - d et la longueur optimale de l'échantillon d'entraînement P (4 ou 5 pages du sujet) : w^2=P*d
Par conséquent, plus la complexité du SN est grande, plus la longueur de l'échantillon d'entraînement doit être importante. Non seulement la complexité de la formation augmente comme P^3, mais les données peuvent aussi être insuffisantes ! Mais le plus grand piège se trouve là où on ne l'attend pas - les processus quasi-stationnaires (ceux que notre NS identifie dans le cotier et exploite ensuite) ont une durée de vie caractéristique (du tout, différente de zéro et plus petite que certains). Il est clair que sur un échantillon de formation plus grand, il y a une plus grande probabilité que le processus sélectionné change... vous voyez ? Plus l'échantillon d'entraînement est court, mieux c'est - moins de risques de se faire avoir par un changement de sentiment sur le marché ! Ici, il semble que la réponse à la question "Qu'est-ce qui est mieux - un NS à 2 couches avec un court échantillon d'entraînement, ou un puissant 3 avec trois universités derrière lui (pendant l'apprentissage, tout devient inutile) ?", sera donnée par une simple expérience.
Pour cela, j'ai jeté trois grilles - 1,2 et 3 dans Mathcad, et j'ai comparé les résultats de la prédiction d'un signe des incréments de kotier un compte à l'avance (j'ai rassemblé les statistiques de 100 expériences indépendantes). Les résultats sont les suivants :
1 - p=10% de signes correctement devinés (probabilité=1/2+p).
2 - 15-16%
3 - 12%
Il y a quelques paramètres libres ici : la dimension de l'entrée et le nombre de neurones dans la ou les couches. Le premier paramètre était le même pour toutes les architectures, le second était choisi personnellement. Il est clair que la grille NS à trois couches n'est pas une panacée, et peut-être que pour nous, traders, la meilleure option pour l'unité analytique MTS est une grille à deux couches - du point de vue de la précision maximale des prévisions et des exigences minimales en matière de complexité de la formation (puissance du RS, historique important et sa non-croissance).
Je me demande si quelqu'un a essayé d'utiliser NS pour prédire les numéros de loterie ?
gpwr, tu te moques de tout le monde ! - il s'agit de prédire le numéro de la loterie. Et s'il vous plaît, retirez la citation de mon message - cela ajoutera encore plus de localisme à votre message :-)
J'ai déjà donné ci-dessus un lien vers la conclusion de la relation optimale entre le nombre de synapses NS - w, sa dimension d'entrée - d et la longueur optimale de l'échantillon d'entraînement P (4 ou 5 pages du sujet) : w^2=P*d