Neuromongers, ne passez pas à côté :) besoin de conseils - page 9

 
Figar0:

Voici une discussion point par point :

Merci Sergey, vous avez compris.

2) Pré-traitement des entrées (la question semble assez simple et assez ouverte, nous pouvons discuter si nous savons ce qui est fait dans ce cas et comment cela est fait).

Rien d'extraordinaire. Il y a plusieurs niveaux, chacun traité séparément par le filtre de Hodrick-Prescott, sans coup férir.

3) Mathématiques de la NS.

Un certain nombre d'expériences ont montré que les paramètres du réseau ont un effet négligeable sur les résultats dans certaines limites. Trop peu mène au surentraînement, trop mène à la sursaturation.

Sur le sujet des réseaux d'écho, je suis prêt à discuter. Je ne vais pas encore poster le code, j'ai des projets.

4) Les questions "organisationnelles" du fonctionnement des SN.

Comment/quand s'entraîner/se recycler

Au fait, je n'ai pas essayé de changer

périodes/intervalles

Je n'ai pas non plus fait de recherches sérieuses. Je pense qu'il y aura un impact, peut-être même des périodes différentes selon l'outil.

la logique du travail du conseiller expert-interprète de la sortie nette

Aucune recherche sérieuse non plus, mais d'après ce que j'ai changé, je ne pense pas qu'il y aura un effet significatif, bien que... Il faudra vérifier à nouveau.

, MM.

Je ne vois pas du tout l'intérêt de l'ajouter. La rentabilité potentielle est facile à estimer avec FS.

- pourquoi "echo" ? Vous avez peut-être été étuvé dedans, parlez-moi des avantages et des inconvénients.

Tout d'abord, il y a moins de marge de manœuvre avec les paramètres du réseau. Inutile de penser que si par exemple la couche cachée est plus petite que la couche d'entrée, c'est déjà de la compression de données et il y a une forte probabilité que le réseau ne fonctionne pas, etc. Vous n'avez pas à tenir compte d'un tas de petites choses que le reste du réseau possède.

En bref, maintenant je travaille avec un réseau - je lance juste des neurones, des connexions (un certain nombre, certains types).

Je l'ai adapté. Je l'utilise. Je ne me soucie pas vraiment de ce qui se passe à l'intérieur, donc j'ai essentiellement une boîte noire pratique.

Pratiquement tout problème résolu par MLP est résolu par le réseau écho.


Deuxièmement, j'obtiens toujours la solution optimale en fonction de la topologie et du rapport entrée/sortie.

Troisièmement, le temps d'adaptation (j'évite délibérément le mot "apprentissage") du réseau est prédit avec une grande précision, parce que le MLP est utilisé pour cela, qu'il n'y a pas de convergence, etc.


Jusqu'à présent, je n'ai vu qu'un seul inconvénient : la limitation par la fonction de fitness. C'est-à-dire qu'en théorie, je ne peux utiliser que la solution présentant la plus petite erreur RMS des FF et autres. Bien sûr, cela peut être contourné avec l'apprentissage génétique, mais toute la beauté du réseau d'écho est alors perdue.

Bien que non, il y en a une autre, je ne suis pas sûr, mais à mon avis (je peux me tromper) le temps de formation augmente de façon cubique (pas tant la formation que la formation de la matrice dérivée), donc la formation d'un réseau avec, disons, 1000 neurones prendra un temps considérable.


Comment l'avez-vous déterré en premier lieu ?

Grâce au même forum :) de mon ami gpwr, pour lequel je tiens à le remercier vivement :)

Le deuxième type de CT n'est pas bon du tout, selon moi.

Imho, avec le type 2 est beaucoup plus facile de travailler avec et d'analyser les résultats. Par exemple, le CT du projet à l'étude était à l'origine parfaitement adapté au type 2.

a)Êtes-vous vraiment sûr que les entrées/sorties ne peuvent pas être améliorées ?

Bien sûr que non.

b) Pré-traitement : à quoi ressemble-t-il ? Par exemple, avez-vous analysé la distribution des valeurs d'entrée ?

La normalisation est présente sous une forme ou une autre, mais il n'y a pas d'analyse sérieuse de la distribution des données.

 
renegate:

Avez-vous fait une dévolatilisation (trouvée dans les articles) pour les indulateurs que vous alimentez à l'entrée du réseau ?

J'y ai jeté un coup d'œil - intéressant. Peut-être pouvez-vous partager votre expérience de leur utilisation ? Quels sont les résultats, les améliorations, les caractéristiques, les écueils ?

Vous pouvez également essayer de faire en sorte que les inductances soient sans gabarit.

Erm, il y a des doutes ici, mais j'aimerais quand même entendre une courte caractérisation aussi.
 

Représentons, de manière conventionnelle, la zone de données analysée (motif) par un rectangle bleu et la zone de données prédite par un rectangle rouge. Dans l'implémentation actuelle, la taille verticale de la zone rouge dépend, par le biais d'un facteur d'échelle, de la taille de la zone bleue (et devrait dépendre du contenu en données de la zone bleue, et non de la taille de la zone). Voici deux exemples où nous constatons une divergence :

и

Nous constatons que la taille du rectangle rouge est plus petite dans le premier écran et plus grande dans le second que la taille du rectangle bleu.

La normalisation du signal est relative à la taille verticale.

Je pense donc que nous devrions normaliser non pas par la taille de l'échantillon mais par la taille de l'ensemble de l'échantillon de formation. Cela semble diminuer la capacité de prédiction de la grille.

Il y a un inconvénient lié à cette méthode (c'est la raison pour laquelle j'ai choisi ce mode de rationnement), mais il semble impossible d'y échapper - nous devons parcourir l'échantillon d'entraînement une fois de plus pour obtenir les valeurs maximales et minimales.

Il est clair que la distribution des signaux du motif dans l'implémentation actuelle est fortement décalée (ce qui est mauvais) dans la zone des valeurs maximales et minimales, car chaque motif a la valeur 1 et la valeur -1.

À mon avis, nous devrions commencer par ces changements.

 
Ce n'est pas comme ça que tu me l'as expliqué :) . Maintenant, je suppose que je suis d'accord.
 
TheXpert:
Ce n'est pas comme ça que tu me l'as expliqué :) . Je suppose que je suis d'accord maintenant.

Non, pas dans l'autre sens. Je vous le dis, les mots sont difficiles à expliquer, les images sont plus faciles. Tant pour l'orateur que pour l'auditeur. ;)

PS Quant à la zone prédictive sur l'apprentissage du profit - c'est toujours le cas, j'y travaille.

 

J'ai expérimenté le prix en utilisant l'algorithme suivant :

1) Obtenir une série de premières différences (FDD) de Close

2) Calculer la moyenne mobile du module FFD (j'ai pris une période de 25)

3) Diviser le FFD par la moyenne mobile

On obtient le FFD, qui est plus stationnaire. Vous pouvez revenir à une pseudo-série de prix en utilisant la somme cumulée.


Je vois que vous n'utilisez pas le RRR. Utilisez-vous la suppression des tendances pour les séries de prix ? Ou bien faut-il simplement normaliser les séries de prix dans une fourchette donnée ?

 

renegate:

Utilisez-vous la suppression des tendances pour les séries de prix ?

Plus de détails ici également.

Ou faut-il simplement normaliser la fourchette de prix dans une fourchette donnée ?

Pour le moment, la normalisation est effectuée dans la description du modèle.

Je vais maintenant effectuer une normalisation sur l'ensemble des modèles. Cela ne devrait pas être trop difficile.

Je voudrais essayer de joindre la dévolatilisation mais ce sera plus compliqué ici. Je vais y réfléchir.

 

Pour ce faire, il est nécessaire d'accepter l'axiome selon lequel la série de prix est composée de composantes tendancielles, cycliques et de bruit.

Nous soustrayons la composante de tendance de la série de prix. Je peux penser à 3 façons :

1) Faites une analyse en composantes principales (AGC ou PCA) et mettez à zéro la première composante principale.

2) Soustraire un muving de la série de prix. Sa période peut être sélectionnée à l'œil nu ou par optimisation ou analyse du spectre.

3) Trouvez la régression linéaire de toute la série de prix et soustrayez-la du prix.

Après cela, nous obtenons une série contenant uniquement des composantes cycliques et de bruit. Il est pratique de les normaliser dans un intervalle donné.

 
C'est en fait le principal composant que je recherche :)
 
renegate:

J'ai expérimenté le prix en utilisant l'algorithme suivant :

1) Obtenir une série de premières différences (FDR) à partir de Close

Pas de question piège, pourquoi cette étape ?
Raison: