L'Apprentissage Automatique dans le trading : théorie, modèles, pratique et trading algo - page 79
Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
J'ai utilisé la méthode "repeatedcv" dans trainControl, avec un fractionnement par défaut. Récemment, j'ai écrit moi-même un code pour la validation croisée, j'ai essayé la validation croisée avec des barres prises au hasard et avec des morceaux pris consécutivement sans interruption. Je n'ai pas vu de différence sur le fronttest, le résultat était à peu près le même dans les deux cas. J'ai divisé les données pour la formation/validation croisée 50%/50%, peut-être qu'à ce ratio cela n'a plus d'importance.
Je vais l'expérimenter en soins...
Je me souviens que dans l'article que vous avez posté il y a quelque temps, la comparaison principale portait sur les arbres renforcés avec la méthode de Platt (quelque chose comme ça). Tout ce que j'ai trouvé sur Google à propos de cette méthode, c'est que vous devez passer la sortie du modèle à sigmoïde et prendre son résultat. Le gbm ou le xgboost peuvent-ils le faire ? Cette approche semble être meilleure que les forêts, les neurones et certains "arbres en sac" qui arrivent en deuxième position.
A propos du CV. Le défaut est le partitionnement aléatoire... Pour les séries temporelles, la séparabilité temporelle est importante... vous pouvez le faire dans caret. Caret CV time series custom folds... Cherchez. Dans le code que j'ai posté plus tôt. C'est mis en œuvre dans le contrôle des trains.
Je vous regarde et je suis étonné... Vous voulez obtenir quelque chose à partir de rien. C'est-à-dire que vous voulez obtenir un résultat de 0,0000000000000000000000000000000000000000 à partir de zéro. Je ne peux plus le regarder, alors je vais vous donner un coup de main. En fait, la topologie du réseau est secondaire. Dans l'apprentissage automatique, dans le domaine du forex et au-delà, les données viennent en premier. Autrement dit, le plus important dans la conception des réseaux neuronaux n'est pas la topologie du réseau ou la méthode de formation. Il s'agit de données d'entrée et de données de sortie. Si les données sont pertinentes pour le marché, n'importe quel perseptron, même petit, résoudra votre problème de classification et fonctionnera parfaitement à l'avenir, pour une raison simple : les données d'entrée sont pertinentes pour le marché et ces données sont capables de le prédire. Et ce que vous essayez de faire, c'est de gratter la surface d'informations non pertinentes. Désolé, mais le résultat ne sera pas non plus pertinent : ..... Quant au marché, dans le domaine du forex, l'essentiel est le volume, puis la réaction du marché à celui-ci. Et pas le volume qui est dans MT (tick), mais le volume réel des futures, le même euro. Utilisez le delta du cluster pour vous aider. Il y a beaucoup d'informations utiles. Ainsi, l'utilisation du volume des transactions augmentera considérablement les performances de tout réseau, même le plus simple des perseptrons. Il dispose également d'un delta, qui est aussi extrêmement utile. Mais vous essayez de construire un modèle sur la base d'indicateurs qui sont secondaires, je dirais même tertiaires après le prix et vous en attendez un miracle. Il n'y aura pas de miracle, je vous l'assure. .....
P.S., pense juste à qui tu essaies de te présenter contre... Des sociétés avec des équipes de programmeurs les plus cool, avec plus de puissance de traitement que votre quad-core. Avec l'argent investi dans le développement de nouvelles méthodes, etc. Et voilà qu'Alexey, originaire de la simple campagne russe, a décidé de pirater le marché en 5 ans et de décrocher le graal. Descendez des cieux et enlevez vos lunettes roses.........
Dans l'apprentissage automatique, dans le domaine du forex et au-delà, les données viennent en premier. En d'autres termes, le plus important lors de la conception de réseaux neuronaux n'est pas la topologie du réseau ou la méthode de formation. Il s'agit de données d'entrée et de données de sortie. Si les données sont pertinentes pour le marché, n'importe quel perseptron, même petit, résoudra votre problème de classification et fonctionnera parfaitement à l'avenir, pour une raison simple : les données d'entrée sont pertinentes pour le marché et ces données sont capables de le prédire.
Je n'ai même pas de quoi discuter, c'est exact. Nous le savons aussi, et nous discutons non seulement des modèles de classification, mais aussi des méthodes de sélection des prédicteurs (données d'entrée), lisez d'abord ce fil de discussion.
Je suppose que vous espérez sélectionner manuellement une douzaine d'entrées, construire un modèle, négocier pendant une semaine, commencer à perdre, recommencer à sélectionner des entrées. Je l'ai fait aussi, parfois j'ai des stratégies bizarres comme "prendre un certain grain pour initialiser le neurone, l'entraîner exactement 7777 itérations, tout sera ok, mais un mardi sur deux vous devez trader contre son signal". Optimiser le réseau sur de nouvelles données tous les deux jours". Ces stratégies sont réelles, mais il faut beaucoup de temps pour choisir quelque chose comme ça et cela ne rapporte que pendant quelques semaines. Tout cela parce qu'une telle stratégie est basée sur un modèle à court terme.
Au lieu de cela, je choisis un algorithme pour la sélection automatique des entrées. Pour faire simple, j'ai une centaine d'entrées à chaque barre et un algorithme qui sélectionne une combinaison d'entrées telle qu'elles donnent toutes ensemble un signal d'achat/de vente valide pendant toute l'année. Ce n'est pas comme l'optimisation des Expert Advisors dans mt5, où un EA peut obtenir de grands résultats et échouer sur le fronttest, mais c'est plus compliqué, avec des validations croisées et différents critères d'estimation du résultat. J'avais l'habitude de sélectionner une centaine d'entrées, maintenant c'est moins, juste quelques dizaines. J'obtiens une précision de 60%-70% sur le fronttest, mais il est toujours instable, je dois me débarrasser des degrés de liberté dans l'ensemble du processus de sélection et d'entraînement pour obtenir approximativement les mêmes résultats, même en partant de zéro à chaque fois.
P.S., réfléchissez à qui vous essayez d'affronter... Des sociétés avec des équipes de programmeurs les plus cool, avec plus de puissance de traitement que votre quad-core. Avec l'argent investi dans le développement de nouvelles méthodes, etc. Et voilà qu'Alexey, originaire de la simple campagne russe, a décidé de pirater le marché en 5 ans et de décrocher le graal. Descends du ciel et enlève tes lunettes roses........
Les entreprises disposant de leurs propres installations et programmeurs utilisent les mêmes logiciels d'analyse de données et de modélisation que ceux dont nous disposons. Disons qu'ils forment le modèle parfait et obtiennent 100% de profit par mois. J'ai moins de pouvoir, avec les mêmes données je serai capable de construire un modèle plus faible avec, disons, seulement 50% de bénéfice. Ce sera suffisant pour moi.
Je te regarde et c'est incroyable... Vous voulez obtenir quelque chose à partir de rien. C'est-à-dire qu'à partir de zéro, vous voulez obtenir un résultat de 0,00000000000000000000000000000000000000000000000000000000. Je ne peux plus le regarder, alors je vais vous donner un coup de main. En fait, la topologie du réseau est secondaire. Dans l'apprentissage automatique, dans le domaine du forex et au-delà, les données viennent en premier. Autrement dit, le plus important dans la conception des réseaux neuronaux n'est pas la topologie du réseau ou la méthode de formation. Il s'agit de données d'entrée et de données de sortie. Si les données sont pertinentes pour le marché, n'importe quel perseptron, même petit, résoudra votre problème de classification et fonctionnera parfaitement à l'avenir, pour une raison simple : les données d'entrée sont pertinentes pour le marché et ces données sont capables de le prédire. Et ce que vous essayez de faire, c'est de gratter la surface d'informations non pertinentes. Désolé, mais le résultat ne sera pas non plus pertinent : ..... Quant au marché, dans le domaine du forex, l'essentiel est le volume, puis la réaction du marché à celui-ci. Et pas le volume qui est dans MT (tick), mais le volume réel des futures, le même euro. Utilisez le delta du cluster pour vous aider. Il y a beaucoup d'informations utiles. Ainsi, l'utilisation du volume des transactions augmentera considérablement les performances de tout réseau, même le plus simple des perseptrons. Il dispose également d'un delta, qui est aussi extrêmement utile. Mais vous essayez de construire un modèle sur la base d'indicateurs qui sont secondaires, je dirais même tertiaires après le prix et vous en attendez un miracle. Il n'y aura pas de miracle, je vous l'assure. .....
P.S., pense juste à qui tu essaies de te présenter contre... Des sociétés avec des équipes de programmeurs les plus cool, avec plus de puissance de traitement que votre quad-core. Avec l'argent investi dans le développement de nouvelles méthodes, etc. Et voilà qu'Alexey, originaire de la simple campagne russe, a décidé de pirater le marché en 5 ans et de décrocher le graal. Descends du ciel et enlève tes lunettes roses........
Démagogue, ouch. Il est temps que tu sortes d'ici. Construire une maison.
"Le chien aboie, la caravane part." С
Je n'ai même pas de quoi argumenter, c'est vrai. Nous le savons aussi, et nous discutons non seulement des modèles de classification, mais aussi des méthodes de sélection des prédicteurs (entrées), lisez d'abord ce fil de discussion.
Je suppose que vous espérez sélectionner manuellement une douzaine d'entrées, construire un modèle, négocier pendant une semaine, commencer à perdre, recommencer à sélectionner des entrées. Je l'ai fait aussi, parfois j'ai des stratégies bizarres comme "prendre un certain grain pour initialiser le neurone, l'entraîner exactement 7777 itérations, tout sera ok, mais un mardi sur deux vous devez trader contre son signal. Optimiser le réseau sur de nouvelles données tous les deux jours". Ces stratégies sont réelles, mais il faut beaucoup de temps pour choisir quelque chose comme ça et cela ne rapporte que pendant quelques semaines. Tout cela parce qu'une telle stratégie est basée sur un modèle à court terme.
Au lieu de cela, je choisis un algorithme pour la sélection automatique des entrées. Pour faire simple, j'ai une centaine d'entrées à chaque barre et un algorithme qui sélectionne une combinaison d'entrées telle qu'elles donnent toutes ensemble un signal d'achat/de vente valide pendant toute l'année. Ce n'est pas comme l'optimisation des Expert Advisors dans mt5, où un EA peut obtenir de grands résultats et échouer sur le fronttest, mais c'est plus compliqué, avec des validations croisées et différents critères d'estimation du résultat. J'avais l'habitude de sélectionner une centaine d'entrées, maintenant c'est moins, juste quelques dizaines. J'obtiens une précision de 60%-70% sur le fronttest, mais il est encore instable, je dois me débarrasser des degrés de liberté dans l'ensemble du processus de sélection et d'entraînement pour obtenir approximativement les mêmes résultats, même en partant de zéro à chaque fois.
Les entreprises, avec leurs installations et leurs programmeurs, utilisent les mêmes logiciels d'analyse de données et de modélisation que ceux dont nous disposons. Ils formeront un modèle parfait et obtiendront un bénéfice de 100% par mois. J'ai moins de pouvoir, avec les mêmes données je peux construire un modèle plus faible, avec, disons, seulement 50% de bénéfice. Je vais m'en sortir.
Laissez-moi le dire ainsi. Les meilleurs fonds affichent un rendement annuel moyen de 40 à 50 %. Ils peuvent y travailler à la fois des personnes intelligentes et excellentes. Je ne vois rien d'anormal à ce que je me rapproche de 50 % par an et que j'aie cette croissance.
Premièrement, les fonds affichent un rendement aussi misérable pour une seule raison, le manque de liquidité sur le marché, il est difficile de mettre une grande quantité d'argent dans la stratégie, vous n'avez pas de tels problèmes.
Deuxièmement, pourquoi ne pas viser 100 % par mois, par exemple ?
Je suis tout à fait d'accord avecMihail Marchukajtes, pour améliorer la qualité de la reconnaissance, nous devons améliorer la qualité des signes et des modèles..... leur influence +/- 5% sur le résultat global
Premièrement, les fonds affichent un rendement aussi misérable pour une seule raison, le manque de liquidité sur le marché, il est difficile de mettre une grande quantité d'argent dans la stratégie, vous n'avez pas de tels problèmes.
Deuxièmement, pourquoi ne pas viser 100 % par mois, par exemple ?
Je suis tout à fait d'accord avecMihail Marchukajtes, pour améliorer la qualité de la reconnaissance, nous devons améliorer la qualité des signes et des modèles..... leur influence +/- 5% sur le résultat final
Vous êtes aussi un démagogue. Eh bien, montrez-nous les entrées avec ce degré d'informativité. Pourquoi prenons-nous les meilleurs modèles ? Pour extraire des signaux de données bruyantes, si nous avions des données sans bruit, nous pourrions également utiliser une formule dans Excel.
"100% par mois". S'efforcer, montrer des résultats, partager des idées. Nous vous écouterons, comment multiplier votre rentabilité par 20 et comment ne pas vous retirer le mois suivant de la ponction.
Vous êtes aussi un démagogue. Eh bien, montrez-nous les entrées avec ce degré d'informativité. Pourquoi prenons-nous les meilleurs modèles ? Pour extraire des signaux de données bruyantes, si nous avions des données sans bruit, nous pourrions utiliser la formule suivante dans Excel.
"100% par mois". S'efforcer, montrer des résultats, partager des idées. Nous vous écouterons, comment multiplier votre rentabilité par 20 et comment ne pas vous retirer le mois suivant d'un prélèvement.
"longévité" du forex. Plus de 5 ans de commerce. Classés par FS. Oui, certains ont des rendements cosmiques, mais d'autres statistiques sont mauvaises. C'est la réalité. Et Stabiliti change de mains. Tous les autres montrent des FS de 3 et moins.
Vous êtes aussi un démagogue. Eh bien, montrez-nous les entrées avec ce degré d'informativité. Pourquoi prenons-nous les meilleurs modèles ? Pour extraire des signaux de données bruyantes, si nous avions des données sans bruit, nous pourrions utiliser la formule suivante dans Excel.
"100% par mois". S'efforcer, montrer des résultats, partager des idées. Écoutons comment multiplier le rendement par 20 et comment ne pas se perdre dans le mois suivant à cause d'un tirage au sort.
L'homme recommande de lire "MSUA" et l'analyse spectrale en particulier Fourier
========================================================
Plus loin quels résultats j'ai "démagogue" ont atteint, mais en fait très modeste, de bonnes idées que je pense beaucoup, ma recherche va dans de nombreuses directions simultanément et il ya un énorme manque de connaissances dans divers domaines, parce que souvent demander de l'aide aux participants du forum, mais surtout pour aider et personne ne veut, ils disent que vous apprenez vous-même, et puis..... seulement si je me suis maîtrisé tout alors pourquoi je fais cette communication, comme sans logique, je suis distrait.
Voici la meilleure chose sur le dan. Mom. que j'ai réussi à extraire de RF sur les nouvelles données est de 50% par mois pendant 2 mois d'affilée, mais tout est encore très instable, j'ai essayé de remplir les photos 10 fois, mais ne pas obtenir (got it)
L'essentiel est que vous ne devez pas vous limiter avec des modèles tels que 30% par an, c'est cool, ce n'est pas cool, c'est un cadre pour l'esprit et la créativité.