L'Apprentissage Automatique dans le trading : théorie, modèles, pratique et trading algo - page 83

 
mytarmailS:


Tout ce quiva de l' exploration visuelle des graphiques et de la recherche de modèles dans la ventilationà la formation de réseaux neuronaux n'est rien d'autre que du trading par les statistiques, les statistiques mêmes qui ne fonctionnent pas sur le marché, savez-vous de quoi je parle ?

le marché évolue à l'encontre des transactions de la foule ----- la foule agit en fonction des statistiques ------ tout ce dont vous avez besoin est de prédire l'action de la foule dans le futur et de faire le contraire, la seule façon de prédire est la statistique


Si nous entendons par statistiques des outils qui ne fonctionnent QUE sur des processus aléatoires stationnaires, alors ces statistiques ne fonctionnent pas, car les marchés financiers sont des processus non stationnaires, sur lesquels les concepts tant appréciés de "moyenne", de "corrélation", etc. n'ont aucun sens.

L'apprentissage automatique, quant à lui, n'est généralement pas classé dans les statistiques, mais dans l'intelligence artificielle.

 

Quant à l'idée deMihail Marchukajtes, je l'ai également formulée quelques jours avant qu'elle n'apparaisse dans ce fil, peut-être que quelqu'un sera intéressé par le résultat, je pense que cette approche est également correcte et même viable.J'ai remarqué un modèle technique depuis longtemps, qui fonctionne de temps en temps, le modèle est purement vendeur (mais je laisse le réseau acheter juste pour le plaisir), je l'ai prescrit et lorsque le prix arrive à un certain point "X" dans le modèle, je laisse le réseau faire un achat/vente/repos, le réseau n'analyse pas toutes les cotations constamment, mais seulement lorsque certaines conditions sont remplies le réseau le fera..

L'objectif était de trois classes, c'est-à-dire que lorsque le point "X" est atteint, alors un stop loss et un take profit mentaux sont fixés pour l'achat et la vente :

acheter - si un achat à emporter est effectué et que le stop n'a pas été abattu

Vendre - si l'on prend le point de vente et que le stop loss n'a pas été sorti.

reste - si l'on prend un stop loss à l'achat et à la vente et qu'aucun des deux n'a été atteint.

la prise était de 2 ou 3 fois l'arrêt, je ne me souviens pas exactement, je pense que c'était 3 fois...

Malgré le fait que le réseau a négocié en réalité beaucoup moins bien que la validation (sur la validation, le nombre de bonnes réponses était de 63% et dans la négociation réelle d'environ 20%), mais néanmoins l'algorithme a été rentable.

yy

ff

mais le plus souvent

Ia

le modèle est court en soi et, par conséquent, acheter ici n'est pas marqué par la précision et la rentabilité

woo

ANNÉES

Et si nous programmions 10 de ces modèles au lieu d'un seul ? intéressant ? ;)

 
SanSanych Fomenko:

Si par statistiques, nous entendons des outils qui ne fonctionnent QUE sur des processus aléatoires stationnaires, alors ces statistiques ne fonctionnent pas, car les marchés financiers sont des processus non stationnaires où les concepts tant appréciés de "moyenne", de "corrélation", etc. n'ont aucun sens.

L'apprentissage automatique, quant à lui, n'est généralement pas classé dans les statistiques, mais dans l'intelligence artificielle.

Tout ce qui est utilisé par la grande majorité, si j'ai bien compris la remarque, entrerait dans le cadre des statistiques.

Et je vais ajouter un peu plus à la course :

Vous écrivez sur la non-stationnarité et les marchés, l'apprentissage automatique, mais savez-vous qu'il existe des outils généralement acceptés pour prédire les processus non stationnaires et qu'ils ne sont pas nombreux, ce sont les "MGUA". modèles de Markov cachés et réseaux neuronaux récurrents (peut être faux au sujet du réseau, peut être juste pour la BP)

Les réseaux neuronaux, les prévisionnistes de toutes les couleurs, etc. ne sont PAS conçus pour les données non stationnaires, pourquoi nous tous, moi y compris, utilisons des outils qui ne sont pas destinés à leur usage ? Question)

 
SanSanych Fomenko:

100% pour un arbre, c'est un non-sens absolu !

Si tous vos prédicteurs sont du bruit, ce résultat est très difficile à atteindre : il y aura toujours une erreur de 3 à 5 %. Le bruit donne toujours de très bons résultats avec toutes les validations croisées et autres astuces.

Une précision de 100 % ne signifie qu'une chose : parmi les prédicteurs, vous avez un double de la variable cible (une modification de celle-ci). C'est-à-dire que le modèle est tourné vers l'avenir.

Je me souviens d'un exemple sur vos données de ALL_cod.RData, dataset TF1 ou quelque chose comme ça, avec la première variable cible forêt même avec un petit nombre d'arbres a donné presque 100% de résultat. Et en augmentant le nombre d'arbres dans la forêt, la précision a même atteint les 100% absolus. Une forêt peut mémoriser chaque exemple de formation, si ses paramètres sont suffisamment grands pour cela.

Dans mytarmailS c'est l'inverse, la forêt avec un petit nombre de paramètres donne un bon résultat, mais avec l'augmentation du nombre d'arbres la précision diminue. Il n'utilise pas la validation croisée, donc nous parlons des données de formation elles-mêmes. Ça ne marche pas comme ça. La précision d'une forêt sur des données d'entraînement ne diminuera que si ses paramètres diminuent, et non l'inverse. Est-ce possible ?

 
Dr. Trader:

Avec mytarmailS c'est l'inverse, une forêt avec un petit nombre de paramètres donne de bons résultats, mais avec plus d'arbres la précision diminue.

Non, ce n'est pas ça, la précision ne diminue pas, le nombre de transactions diminue. En raison du fait que les classes 1 et -1 ne peuvent plus apprendre parce que toutes les observations ont été épuisées, et la classe "0" peut et peut encore apprendre, et si vous commencez à lui apprendre à être belle, elle absorbera ces quelques observations qui ont été conçues classes -1 et 1, et si vous entraînez mon modèle de la manière conventionnelle ceux avec un grand nombre d'arbres alors la sortie sera un zéro, la classe "0" - "ne rien faire".
 

Une lourde cloche

Et sur le bord même de celui-ci

Un papillon qui somnole. ( hoku en japonais.)

En regardant la branche depuis l'auditorium, je n'arrive pas à savoir si j'en ai besoin.

D'une part, il y a l'apprentissage automatique, l'intelligence artificielle, les réseaux neuronaux ; d'autre part, si je comprends bien, la question principale est de savoir comment identifier et combiner les précédents (régularités) et les prédicteurs (pronostics). D'autre part, le marché est une substance, le nombre de facteurs est infini, alors est-il possible de les diviser en facteurs majeurs et mineurs ?

Quelques instantanés. 2011г. Japon. Fukushima. Le tsunami a provoqué un accident dans une centrale nucléaire. Peu importe la cause du tsunami : un tremblement de terre ou un battement d'aile de papillon, selon la théorie du chaos. L'important est qu'on ne peut pas le prévoir et connaître l'impact sur le marché. Il semblerait que l'accident, l'évacuation, les radiations, et maintenant quitter l'île. Mais non. L'accident s'est produit le 11 mars, et le 16 mars, l'indice Nikkei affiche une croissance sans précédent. Il s'est avéré que les Japonais ne se sont pas enfuis comme des rats d'un navire en perdition, mais qu'au contraire, ils ont commencé à ramener les capitaux dans leur pays pour aider à la reconstruction.

Il y a un an. Allemagne. Wolfsburg. L'usine "WV" et la ville ont été construites sur l'ordre d'Hitler pour la création de la voiture du peuple allemand. Ici, le programmeur a agi comme un papillon, ayant programmé l'absence d'émissions nocives des moteurs diesel uniquement lors des essais au banc. Scandale. Les actions de WV sont en baisse. Le DAX est brisé.

Nos jours. Encore le Japon. Les actions de Nintendo s'envolent. La capitalisation dépasse, par exemple, les exportations d'armes des États-Unis. Qui aurait pensé que quelque chose comme "Pocemon Go" deviendrait si populaire ?

Ce fil de discussion porte sur les systèmes basés sur des données hebdomadaires, mensuelles et même annuelles. Il cherche une sorte de signal forex majeur et stable. Je trouve ça perplexe. Dans la journée, quelques papillons, statistiques, déclarations peuvent "recycler" le marché au moindre caprice. Construire un système stable qui fonctionne au moins une semaine est aussi probable que d'assembler Boeing à partir des pièces trouvées dans une benne à ordures.

 
Yuri Evseenkov:

Cloche lourde

Quel était le but de ce post ?
 
Dr. Trader:

Je me souviens d'un exemple sur vos données de ALL_cod.RData, dataset TF1 ou quelque chose comme ça, avec la première variable cible la forêt même avec un petit nombre d'arbres a donné presque 100% de résultat. Et en augmentant le nombre d'arbres dans la forêt, la précision a même atteint les 100% absolus. La forêt peut mémoriser chaque exemple de formation, si ses paramètres sont suffisamment grands pour cela.

Dans mytarmailS c'est l'inverse, la forêt avec un petit nombre de paramètres donne un bon résultat, mais avec l'augmentation du nombre d'arbres la précision diminue. Il n'utilise pas la validation croisée, donc nous parlons des données de formation elles-mêmes. Ça ne marche pas comme ça. La précision d'une forêt sur des données d'entraînement ne diminuera que si ses paramètres diminuent, et non l'inverse. Est-ce possible ?

Le modèle est réentraîné car la liste des prédicteurs n'a pas été nettoyée des prédicteurs de bruit. Il s'agit d'un exemple de formation et il est conçu comme tel délibérément. C'est pourquoi je suis si confiant quand je dis que
 
mytarmailS:
Quel est le but de ce post ? Je ne comprends pas.
Je pense tout haut. Ne faites pas attention à moi.
 
Yuri Evseenkov:

Une lourde cloche

Et sur le bord même de celui-ci

Un papillon qui somnole. ( hoku en japonais.)

En regardant la branche depuis l'auditorium, je n'arrive pas à savoir si j'en ai besoin.

D'une part, il y a l'apprentissage automatique, l'intelligence artificielle, les réseaux neuronaux ; d'autre part, si je comprends bien, la question principale est de savoir comment identifier et combiner les précédents (régularités) et les prédicteurs (pronostics). D'autre part, le marché est une substance, le nombre de facteurs est infini, alors est-il possible de les diviser en facteurs majeurs et mineurs ?

Quelques instantanés. 2011г. Japon. Fukushima. Le tsunami a provoqué un accident dans une centrale nucléaire. Peu importe la cause du tsunami : un tremblement de terre ou un battement d'aile de papillon, selon la théorie du chaos. L'important est qu'on ne peut pas le prévoir et connaître l'impact sur le marché. Il semblerait que ce soit un accident, l'évacuation des gens, les radiations, et on peut quitter l'île. Mais non. L'accident s'est produit le 11 mars, et le 16 mars, l'indice Nikkei affiche une croissance sans précédent. Il s'est avéré que les Japonais ne se sont pas enfuis comme des rats d'un navire en perdition, mais qu'au contraire, ils ont commencé à ramener les capitaux dans leur pays pour aider à la reconstruction.

Il y a un an. Allemagne. Wolfsburg. L'usine "WV" et la ville ont été construites sur l'ordre d'Hitler pour la création de la voiture du peuple allemand. Ici, le programmeur a agi comme un papillon, ayant programmé l'absence d'émissions nocives des moteurs diesel uniquement lors des essais au banc. Scandale. Les actions de WV sont en baisse. Le DAX est brisé.

Nos jours. Encore le Japon. Les actions de Nintendo s'envolent. La capitalisation dépasse, par exemple, les exportations d'armes des États-Unis. Qui aurait pensé que quelque chose comme "Pocemon Go" deviendrait si populaire ?

Ce fil de discussion porte sur les systèmes basés sur des données hebdomadaires, mensuelles et même annuelles. Il cherche une sorte de signal forex majeur et stable. Je trouve ça perplexe. Dans la journée, quelques papillons, statistiques, déclarations peuvent "recycler" le marché au moindre caprice. Construire un système stable qui fonctionne au moins une semaine, est aussi probable que d'assembler Boeing à partir de pièces trouvées dans une benne à ordures.

Votre manque de compréhension est fondamental pour le sujet.

1. Tout ce que vous écrivez est absolument correct pour les prévisions telles que les extrapolations qui, à leur tour, fonctionnent pour les séries chronologiques stationnaires. Vous donnez des exemples réels qui montrent la non-stationnarité des séries financières et là vous avez tout à fait raison. De plus, les nouvelles ne sont pas la seule cause de non-stationnarité.

2. La discussion ici porte sur les prévisions basées sur une classification qui ne prend pas en compte l'état précédent lors de la prévision de la barre suivante. Les prédictions (prévisions) basées sur la classification sont des prédictions basées sur des modèles. Si, dans le passé, une nouvelle a provoqué des changements, qui ne sont PAS dérivés de valeurs antérieures (non extrapolées), alors la classification détectera ce changement en tant que tel et si un changement similaire se produit dans le futur (pas exactement le même, mais similaire), il sera reconnu et une prévision correcte sera faite.

Donc, quand on classe les pokémons, ils ne font pas peur.