L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 362

 
Dr. Trader:

Un résumé des cent pages précédentes :)

Neuronics et presque tous les autres modèles populaires sont très loin de l'intelligence artificielle. Ils peuvent simplement trouver les combinaisons de valeurs prédicteurs qui permettent d'atteindre la précision d'apprentissage souhaitée, et dans les prévisions futures, ils interpolent (ou extrapolent) en quelque sorte les résultats passés pour obtenir une nouvelle prévision.

Cela signifie que si nous prenons, par exemple, Ma, Rci et Stochastic comme prédicteurs et que nous formons le réseau neuronal en utilisant les inversions en zigzag comme objectif de formation, nous dirons au réseau neuronal "ces trois prédicteurs peuvent prédire les inversions. Et le réseau neuronal lui-même ne sera pas capable de déterminer si ces prédicteurs correspondent vraiment. Il mémorisera ces données avec une précision acceptable et dans le trading, nous espérons que les mêmes combinaisons de Ma, Rci et Stochastique seront sauvegardées avant le renversement. Mais ils ne le feront pas, et ce sera un échec.

Un modèle formé sur des prédicteurs inutiles échouera, même s'il s'agit d'un gbm, même s'il s'agit d'un réseau neuronal, même s'il s'agit d'une régression. Vous pouvez même générer des séries aléatoires et les utiliser comme prédicteurs, la neuronique trouvera des combinaisons récurrentes parmi elles et les mémorisera.
C'est la tâche d'un mineur de données humain de sélectionner les prédicteurs et le but de la formation, en utilisant d'autres outils. Et la formation du modèle (le neurone) est une minuscule avant-dernière étape.

Les prédicteurs doivent garder une corrélation avec la cible sur les données d'entraînement, tant dans le passé que dans le futur. C'est pourquoi SanSanych parle de tester le modèle sur différents fichiers, juste pour s'assurer que les dépendances trouvées ne disparaissent pas avec les nouvelles données.
C'est-à-dire que nous étudions et collectons soigneusement les prédicteurs et la cible, entraînons le modèle et le testons. Puis nous le testons sur des données totalement nouvelles pour le modèle. Si la précision des prévisions ne coïncide pas dans les deux cas, les prédicteurs ou la cible ne sont pas appropriés. Nous devrions en chercher un autre.


À mon avis, la neuronique n'est pas adaptée à la prédiction de séries temporelles non stationnaires. Le comportement des prix change constamment, les modèles trouvés cessent de fonctionner après les heures de travail, tout est chaotique. Et puis quelqu'un prend un neuroncu, lui donne des prix pendant quelques mois et demande de trouver les dépendances qui se répètent pendant ce temps. Mais il n'y a pas de dépendances répétées et ce que le neurone peut trouver et retenir ne sera qu'une coïncidence aléatoire à 100%.

Si nous prenons un neurone, nous ne pouvons lui donner que des prix traités (et non pas du pur ohlc), comme des indicateurs.


Pourquoi êtes-vous si étroit d'esprit, tout le monde écrit ici comme s'ils n'avaient jamais rien vu de plus doux qu'une carotte ;)) Ne vous embêtez pas avec les prédicteurs, apprenez au neurone à trouver ces prédicteurs, apprenez au neurone à apprendre au neurone, expérimentez :) Il est évidemment très stupide de prendre des indicateurs simples, de les alimenter à l'entrée et à la sortie par un zigzag, je ne sais pas pourquoi tout le monde en parle :) Et bien sûr, ce n'est pas de l'IA, c'est juste de la classification, vous n'avez pas besoin d'un neurone du tout ! Vous pouvez faire avec un classificateur bayésien
 
Maxim Dmitrievsky:

Pourquoi penser de manière si étroite, tout le monde ici écrit comme s'il n'avait jamais vu quelque chose de plus doux qu'une carotte ;)) Baiser les prédicteurs, apprendre au neurone à trouver ces prédicteurs, apprendre au neurone à apprendre au neurone, expérimenter :)
Je pense que neuronka devrait mettre les prédicteurs inutiles à 0 - et ils n'affecteront pas la sortie ! La seule différence sera la vitesse de calcul entre tous les prédicteurs et avec la moitié des plus importants. Mais ceci est également important.
 
elibrarius:
Eh bien, il me semble aussi que les neurones devraient mettre les prédicteurs inutiles à 0 - et ils n'affecteront pas la sortie ! La seule différence serait la vitesse de calcul entre tous les prédicteurs et la moitié des plus importants.

C'est ainsi que les neurones ont été créés pour les tâches gourmandes en ressources, le seul problème est que dans mt5 c'est très limité. Vous pouvez créer des modèles très complexes, originaux et non évidents, ce n'est qu'à ce moment-là que le potentiel d'application de la NS sera révélé, mais certainement pas dans ces techniques, qui sont discutées ici, c'est comme les bases pour les débutants :) Si vous n'avez pas assez de capacité, il existe des serveurs pour la formation NS... Tout ce qui peut être entraîné en 5-30 minutes sur un PC ordinaire n'est, à mon avis, pas du tout neuronique et primitif :)
 
Maxim Dmitrievsky:

C'est ainsi que les neurones ont été créés pour les tâches nécessitant beaucoup de ressources, le seul problème est que dans mt5, c'est très pauvre. Vous pouvez créer des modèles très complexes, originaux et non évidents, alors seulement le potentiel de l'application NS sera dévoilé, mais certainement pas dans ces techniques, qui sont discutées ici, c'est comme les bases pour les débutants :)

J'ai l'intention d'utiliser la neuronique dans MQL pur pour l'optimisation (pour choisir les paramètres des indicateurs) et de l'exécuter dans un réseau ou dans le nuage. 20000 agents peuvent compter - il est impossible de comparer avec n'importe quel R en ce qui concerne la vitesse. Bien que R semble avoir une distribution de tâches vers le nuage Azure également.

 
elibrarius:

J'ai l'intention d'utiliser la neuronique dans MQL pur pour l'optimisation (pour sélectionner les paramètres des indicateurs) et de l'exécuter sur un réseau ou dans le nuage. 20000 agents peuvent compter - aucun R ne peut se comparer à un autre par la vitesse.


Je veux dire que les neurones dans mt5 ne sont pas suffisants, seulement un :)
 
Maxim Dmitrievsky:

Je veux dire que les neurones dans mt5 ne sont pas suffisants, seulement un :)
La chose la plus importante reste la qualité des données d'entrée. Si vous l'avez, même un seul neurone résoudra le problème.
 
elibrarius:
Eh bien, la chose la plus importante reste les données d'entrée qualitatives, si vous les avez, alors 1 neurone résoudra le problème.

Non, ça ne le sera pas. Si vous augmentez l'échantillon, votre neurone va se contracter à cause du stress et éclater :) Il ne sera pas en mesure d'approcher un tel échantillon et émettra en permanence 0.5
 
Maxim Dmitrievsky:

Non, ça ne le sera pas. Si tu augmentes l'échantillon, ton neion va rétrécir à cause du stress et éclater :) Il ne sera pas capable d'approcher un tel échantillon et générera constamment 0,5 à la sortie.

0,5 sera 0,5 si toutes les entrées ont un multiplicateur de 1. Mais si le réseau apprend et fixe le multiplicateur des entrées insignifiantes à 0, et celui des entrées les plus importantes à 1, alors tout ira bien. Bien sûr, la sortie ne sera pas égale à 1, mais réagissez par exemple si la sortie est >0.8

Mais malheureusement, il n'existe pas d'indicateurs qui permettraient d'établir une corrélation avec les bons résultats. Par conséquent, les retraits se produiront sûrement. Vous devez juste plier la probabilité de votre côté.
 
elibrarius:

0,5 sera si toutes les entrées ont un multiplicateur = 1. Et si le réseau apprend et met les entrées insignifiantes à 0 et les plus importantes à 1, alors tout ira bien. La sortie ne sera bien sûr pas égale à 1, mais réagissez par exemple si la sortie est >0,8

Mais malheureusement, il n'existe pas d'indicateurs qui permettraient d'établir une corrélation avec les bons résultats. C'est pourquoi les retraits sont inévitables. Vous devez juste faire pencher la probabilité en votre faveur.

Ce n'est pas qu'ils ne sont pas corrélés, ils vont se contredire quand l'échantillon augmente, oui, au final soit la sortie est toujours 0 ou 1, ou 0,5... de plus pour 1 neurone. Donc si >0,5 vendre et <0,5 acheter. Vous définissez des prédicteurs corrects (selon vous) et des réponses correctes, c'est-à-dire que si psi est sur-vendu et que le marché augmente sur les n barres suivantes, alors la sortie 0, et si psi est sur-acheté et que le marché baisse, alors la sortie 0. Mais il y aura beaucoup de cas où ce sera l'inverse et où il émoussera, mélangera les signaux et entrera en transe. Par conséquent, la sortie sera toujours autour de 0,5 avec de très petites déviations dans une direction ou une autre... et cela se produira avec tous les oscillateurs, car ils ne sont pas du tout des prédicteurs, ce sont des dérivés du prix :)
 
Dr. Trader:

Ainsi, si nous prenons, par exemple, Ma, Rci et Stochastic comme prédicteurs, et que nous formons le réseau neuronal en utilisant les inversions de tendance en zigzag comme cible de formation, nous disons au réseau neuronal : " Ces trois prédicteurs peuvent prédire les inversions de tendance. Et le réseau neuronal lui-même ne saura pas si ces prédicteurs correspondent vraiment. Il mémorisera ces données avec une précision acceptable et dans le trading, nous espérons que les mêmes combinaisons de Ma, Rci et Stochastique seront sauvegardées avant le renversement. Mais ils ne le feront pas, et ce sera un échec.

À mon avis, il est plus correct de penser à la classification et à la régression comme à différents types de points de moyenne dans N-d, à proximité d'un certain noyau, comme cela se produit par exemple dans kNN qui est dit être un approximateur "idéal", mais lent et peu pratique. Dans la classification, seules les réponses sont moyennées, dans la régression, les fiches et les réponses sont moyennées. Il est évident que si cette moyenne mélange des points contradictoires, le résultat sera bruyant, et non prononcé.

Raison: