Que mettre à l'entrée du réseau neuronal ? Vos idées... - page 79

 
Ivan Butko #:
A titre d'exemple : Prix de clôture [1,1000, 1,1050, 1,1025, 1,1070].
Problème : la normalisation les transforme en [0,0, 0,5, 0,25, 0,7], ce qui crée une illusion de hiérarchie.

Il s'agit d'une normalisation très étrange, qui est généralement citée pour être sans 0 (et de préférence sans 1). Les deux sont des limites inatteignables, avec leurs hémorroïdes et leurs erreurs.

et je pense que vous ressassez quelque chose de vieux, quelque chose comme Pearson.

[Supprimé]  
Un encodage à chaud en main, appliqué à l'encodage de caractéristiques catégorielles.
[Supprimé]  
Vous voyez où je veux en venir : jusqu'à ce que vous trouviez, au cours du processus de méditation, d'exploration de données, de danse avec le tambourin, d'apprentissage avec différents signes et marques ou d'autres pratiques occultes, des modèles significatifs qui fonctionnent, toutes ces transformations donneront +- 10%, au niveau de l'erreur de modèle.

Mais il est également très difficile de les trouver par simple énumération.
 
Ivan Butko #:
En même temps, le nombre 0,9, qui dans le schéma initial ne reflète pas sa force, mais exerce en fait une force sur le NS, affecte aussi négativement les autres nombres situés dans la plage inférieure à ce nombre - des nombres plus petits. Et le poids, qui tentera d'affaiblir (d'annuler) la valeur d'entrée 0,9, affaiblira également ( !) des valeurs plus fortes ( !) et d'autres valeurs dans la plage inférieure de ce nombre d'entrée (qui pourraient plus tard être plus importantes pour la performance du système), en raison de sa nature statique, parce que les poids ne changent pas dans un NS entraîné.

Il s'agit là d'une idée intéressante. Et apparemment, elle a sa place.
À un moment donné, j'ai abandonné le NS en faveur de modèles en bois, dont la confusion avec la normalisation. Tout y fonctionne ironiquement (en bois). Les valeurs < 0,9 vont vers une branche, les valeurs >= 0,9 vers une autre. Et la valeur 0,9 elle-même n'affecte en rien les actions ultérieures avec les exemples dans ces deux branches.
Aucune normalisation n'est nécessaire, tous les nombres sont équivalents : 0,001 et 10000000 ne sont que des valeurs de comparaison. L'arbre gère également parfaitement les fiches catégorielles. Pour celles-ci, la division en branches ne se fait pas par < ou >, mais par ==. Par exemple, pour la couleur : tous les verts iront par égalité vers une branche, et tous les rouges vers une autre, et le reste restera pour une division ultérieure en branches (autres catégories et nombres).

 



Les modèles Python font des merveilles Pour la première fois, le résultat est apparu avec un grand nombre d'entrées : j'ai alimenté jusqu'à 160 pièces.

(Pourquoi 160 ? je me suis arrêté à ce nombre, sans raison) D'habitude, plus il y a d'entrées, plus c'est mauvais. Mais cette fois-ci, tout s'est bien passé.

résultat de l'opération en tant qu'objectif.


2) S'entraîner à l'aide de n'importe quelle méthode.

3) Lancer notre stratégie (pomoichny)

4) y ajouter un filtre - notre NS.


Par conséquent, nous devons déployer des efforts intellectuels et créatifs, de la patience et du temps pour choisir une stratégie.

Le réseau neuronal fera le reste.

Nous supprimons au réseau neuronal un travail intellectuel insupportable simplement parce que, dans les réalités actuelles, le réseau neuronal n'est même pas capable de déterminer les niveaux, s'ils ne sont pas marqués "par lui-même".

Et il fera ce qu'il est censé faire : broyer le TS.



Et en augmentant le seuil de régression sur l'avant, les entrées sont également améliorées.


Habituellement, dans 99 % des cas, l'augmentation du seuil d'entrée ne donne rien et réduit stupidement les bonnes entrées en même temps que le chaos de manière proportionnelle, mais ici les entrées de qualité restent, et le bruit disparaît. Modèle BiLSTM (LSTM donne la même chose, la différence est minime).

 
Ivan Butko #:

E t ici, il ne s'agit que de prix + méthode de détermination des intrants et de l'objectif par TS :.

Donc juste des prix sans aucune conversion ? Curieux !



I van Butko #: Les modèles Python font des merveilles

C'est génial ! Il devrait y avoir au moins parfois du positif dans le travail acharné !!!

 
Aleksey Vyazmikin #:

C'est-à-dire les prix sans aucune conversion ? Curieux !

C'est très bien ! Il doit y avoir au moins parfois du positif à travailler dur !!!

Par habitude, je n'ajoute pas : normalisation comme d'habitude : l'ensemble (160 prix) est ramené dans l'intervalle -1...1
 
Ivan Butko #:
Je ne l'ajoute pas par habitude : normalisation comme d'habitude : l'ensemble (160 prix) est ramené dans l'intervalle -1...1

Quelle est la période d'entraînement ? Les cours de clôture ont-ils été donnés ? A partir de quelle TF ? Test sur démo à partir de MQ ? Quelle est l'espérance mat. pour 1 lot ?

 
S'il n'y avait pas les baisses de rendement sur six mois, ce serait parfait. Je les ai eus jusqu'à deux ans. Lors des tests avec 2015 valkingforward.

PS. Comment pouvez-vous tous travailler la nuit ? Le jour est le moment le plus efficace.
[Supprimé]  
Au moins, le mouvement vers un MO sain a commencé, ce qui n'est déjà pas une mauvaise chose.