L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 363

 
Maxim Dmitrievsky:

Pourquoi penser de manière si étroite, tout le monde ici écrit comme s'il n'avait jamais vu quelque chose de plus doux qu'une carotte ;)) Fuck les prédicteurs, apprenez au neurone à trouver ces mêmes prédicteurs, apprenez au neurone à apprendre au neurone, expérimentez :) Naturellement, il est très stupide de juste prendre des indicateurs, de les alimenter à l'entrée et à la sortie par un zigzag, je ne sais pas pourquoi tout le monde en parle :)

J'aimerais pouvoir, mais...

Par exemple, les réseaux de neurones convolutifs possèdent partiellement cette "compétence", ils peuvent apprendre le prétraitement (filtrage) eux-mêmes, mais ils sont très étroitement spécialisés, comme les descendants du Neo-Cognitron Focus, conçu comme un "analogue" de l'œil de la rétine, formé par des backprops, CNN en fait pour les images n'est pas une chose triviale non plus ? Malheureusement, du point de vue de l'ingénierie, développer un système miracle pour qu'ils fassent tout eux-mêmes est une utopie naïve, il est beaucoup plus facile de faire des solutions spéciales pour une tâche particulière, qui de toute façon peut prendre des années de travail d'équipe, alors que le SRS est plus proche de quelque chose de philosophique et humanitaire.

 
Aliosha:

J'aimerais pouvoir, mais...

Par exemple, les réseaux de neurones convolutifs possèdent partiellement cette "compétence", ils peuvent apprendre le prétraitement (filtrage) eux-mêmes, mais ils sont très étroitement spécialisés, comme les descendants du Neo-Cognitron Focus, conçu comme un "analogue" de l'œil de la rétine, formé par des backprops, CNN en fait pour les images n'est pas une chose triviale non plus ? Il y a beaucoup de chiffres magiques et d'architectures chamaniques dans la configuration, un pas à gauche, un pas à droite et tout se casse, c'est-à-dire que c'est un réglage très fin de la tâche, mais pas une solution universelle pour tout et n'importe quoi. Malheureusement, du point de vue de l'ingénierie, pour développer un système miracle qu'ils feraient tout eux-mêmes - utopie naïve, il est beaucoup plus facile de faire des solutions individuelles, qui de toute façon peuvent prendre des années de travail en équipe, et FTI est plus proche de quelque chose de philosophique, humanitaire.


Mais je crois qu'il est possible de créer un bon outil d'auto-optimisation, qui ne fonctionnera pas toujours parfaitement, mais qui le fera de temps en temps.

Mais il est évident que cela ne fonctionnera pas avec des indicateurs standards et une sortie en zigzag :) Cela ressemble même à un jeu d'enfant pour moi, juste à titre d'exemple si seulement.

 
Maxim Dmitrievsky:

ce n'est pas qu'ils ne sont pas corrélés, ils vont se contredire au fur et à mesure que l'échantillon augmente, oui, du coup soit la sortie est toujours 0 ou 1, ou 0.5... de plus pour 1 neurone. Donc si >0,5 vendre et <0,5 acheter. Vous définissez des prédicteurs corrects (selon vous) et des réponses correctes, c'est-à-dire que si psi est sur-vendu et que le marché augmente sur les n barres suivantes, alors la sortie 0, et si psi est sur-acheté et que le marché baisse, alors la sortie 0. Mais il y aura beaucoup de cas où ce sera l'inverse et où il émoussera, mélangera les signaux et entrera en transe. Par conséquent, la sortie sera toujours autour de 0,5 avec de très petites déviations dans une direction ou une autre... et cela se produira avec tous les oscillateurs, car ils ne sont pas des prédicteurs, ils dérivent juste du prix :)
Vous devez acheter si > 0,8, et vendre si <0,2. De cette façon, vous éliminerez le bruit qui se situe au milieu de la plage, c'est-à-dire environ 0,5 %.
 
elibrarius:
Vous devez acheter si >0,8, si<0,2 vendre. De cette façon, vous éliminez le bruit qui se situe au milieu de la plage, c'est-à-dire autour de 0,5 %.

vous ne comprenez pas)
 
un réseau neuronal est une intelligence artificielle et n'importe quel système de pensée ne fonctionnera pas pour rien.... il n'est pas stupide... vous lui offrez de l'argent avant la formation ou lui promettez un pourcentage des recettes, alors il commencera à trouver de vrais modèles et à apporter des revenus...
 
Une question pour ceux qui s'intéressent depuis longtemps au sujet des SN.
Réseaux neuronaux sur ALGLIB et R - les poids s'élèvent-ils de -1 à 1 ?
 
elibrarius:

C'est compliqué... Cela prendrait plus de temps que de comprendre l'algorithme (comme pour la K-corrélation ci-dessus) et de l'écrire. Je pense que la fonction consistant à essayer toutes les entrées, à calculer la corrélation et à éliminer les entrées fortement corrélées prendra quelques heures.

Espérons qu'avec d'autres solutions pour éliminer les prédicteurs, ce sera aussi facile).

Existe-t-il donc d'autres solutions pour trouver des prédicteurs inutiles ?

Jetez un coup d'œil ici.

Lors de l'estimation de l'importance des prédicteurs, il est important de se rappeler qu'il s'agit d'une valeur complexe, qui n'est pas déterminée uniquement par des critères d'information. Dans l'article, j'ai donné un exemple de sélection de prédicteurs en utilisant RandomUniformForest pour montrer l'importance des prédicteurs dans différents aspects. À mon avis, il s'agit du paquet le plus réussi à cette fin.

Dans le cas spécifique des réseaux neuronaux, l'importance des prédicteurs peut être déterminée par leurs poids dans la première couche. Cette approche est utilisée dans H2O. Si je trouve le temps, je vous donnerai un exemple.

Outre l'importance des prédicteurs, nous devons également définir des exemples de bruit (chaînes). Et soit les mettre dans une classe séparée, soit les retirer de l'ensemble de formation. Voir NoiseFilterR

Bonne chance

 
elibrarius:
Une question pour ceux qui s'intéressent depuis longtemps au sujet des SN.
Réseaux neuronaux sur ALGLIB et R - les poids s'élèvent-ils de -1 à 1 ?
Parlez-vous de l'initialisation initiale des poids ou ?
 

Vladimir Perervenko:
Dans mon article, j'ai donné un exemple de sélection de prédicteurs en utilisant RandomUniformForest pour montrer l'importance des prédicteurs dans différents aspects.

Il serait intéressant de connaître l'algorithme de calcul de l'importance dans cette fonction pour en faire un analogue en MQL.

Vladimir Perervenko:

Spécifiquement pour les réseaux neuronaux, l'importance des prédicteurs peut être déterminée par leurs poids dans la première couche. Cette approche est utilisée dans H2O. Si je trouve le temps, je vous donnerai un exemple.

J'y ai également pensé, ce n'est pas difficile à mettre en œuvre.

Vladimir Perervenko:

En plus de l'importance des prédicteurs, nous devons également définir des échantillons de bruit (chaînes). Vous devez soit créer une classe distincte pour eux, soit les supprimer de l'ensemble de formation. Voir NoiseFilterR

C'est une nouveauté pour moi, merci pour l'idée, je devrais y réfléchir).


Vladimir Perervenko:
Faites-vous référence à l'initialisation des balances ou ?
Je veux dire la gamme complète, dans laquelle ils sont appariés - de -1 à 1.
La valeur initiale est choisie au hasard, je suppose (éventuellement au milieu de la fourchette).
 
elibrarius:

Il serait intéressant de connaître l'algorithme de calcul de l'importance dans cette fonction afin d'en faire un analogue dans MQL.

J'y ai aussi pensé, ce n'est pas difficile à mettre en œuvre.

C'est nouveau pour moi, merci pour l'idée, je vais devoir y réfléchir).


Je veux dire quelle est la plage complète dans laquelle ils sont appariés - de -1 à 1.
Je suppose que le point de départ est choisi au hasard (ou au milieu de la plage).

Les réseaux neuronaux sont très sensibles à l'initialisation des poids. Ce n'est pas du tout une question banale. Il existe plusieurs méthodes d'initialisation, dont l'une, le pré-entraînement (utilisé dans les réseaux neuronaux profonds), est la plus prometteuse (IMHO).

Pendant l'apprentissage, les poids des neurones peuvent prendre des valeurs dans une large gamme allant de -inf à +inf. La régularisation et d'autres techniques de stabilisation sont utilisées pour éviter ces biais, en limitant la gamme des pondérations.

Bonne chance

Raison: