L'Apprentissage Automatique dans le trading : théorie, modèles, pratique et trading algo - page 1120
Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
Dans ce cas, et avec votre jeu de données... désolé, mais beaucoup de gens vous ont dit à plusieurs reprises qu'il faut au moins des milliers d'échantillons, et étant donné le caractère bruyant des données de marché, il est préférable d'avoir des centaines de milliers de points, mais quand vous apprendrez Java et utiliserez XGB par exemple, vous rirez de votre persistance dans le passé ;))
cette déclaration est incorrecte
J'ai donc trouvé une métrique améliorée pour le coefficient de Matthews, mais que puis-je dire si vous soufflez de telle façon et de telle autre non. :-(
Je suis coincé avec le passage d'un tableau d'une classe à une autre, et l'enfer... personne à qui demander :-(
pourquoi s'embêter avec les métriques quand vous avez les vôtres pour le CT ? par exemple, vous pouvez mesurer le facteur de profit sur les échantillons et c'est tout.
et les estimations du modèle interne sont secondaires, car la plus petite erreur ne signifie pas la plus grande stabilité avec de nouvelles données
il suffit de choisir un critère externe d'évaluation à travers la performance du métier sur les nouvelles données
vous n'avez pas un grand échantillon pour le test vous allez juste lécher la vis... un petit échantillon pour un plateau n'est pas critique, tout est ok
Vous pourriez argumenter, mais sur le marché, ce n'est pas du tout une question de fidélité\notamment de fidélité, c'est plus important de faire en sorte que cela fonctionne, et avec moi, généralement, plus il y a d'échantillons, meilleur est le résultat))).
il suffit de prendre timber ou xgb - ils ne se soucient pas du nombre de samples à réapprendre :) c'est juste le modèle qui pèsera des gigs
mais l'énumération récursive des caractéristiques avec des métriques externes a commencé à donner des résultats, même sur de petits sous-échantillons, et même des métriques externes.Tendance = 100k lignes. Sur les 8k+(test)restants, vous appliquez le modèle. Les données sont mélangées.
La métrique est le logloss. Résultat, affichez-le. Tendance =... test =...
Cela ne se fait pas avec les séries chronologiques, bien sûr. Mais pour des raisons d'intérêt, je l'ai mis dans le LightGBM presque par défaut sans toucher aux données du tout :
Train : 0.6879388421499111
Test : 0.6915181677127092
Test des sources, bonus avec CatBoost :
https://yadi.sk/d/55DDn-hViNWP6Q
Quels sont vos résultats ?
Pourquoi s'embêter avec les métriques quand le TS a ses propres métriques ? Par exemple, mesurer le facteur de profit sur les échantillons et c'est tout.
l'estimation interne du modèle est secondaire, car la plus petite erreur ne signifie pas la plus grande stabilité avec de nouvelles données
il suffit de choisir un critère externe d'évaluation à travers la performance du métier sur les nouvelles données
vous n'avez pas un grand échantillon pour le test vous allez lécher la vis ... et un petit échantillon pour un plateau n'est pas critique, tout est ok
Il devrait y avoir une quantité illimitée d'espace pour le test en général.
Si quelqu'un veut vérifier la qualité de ses données, il doit les présenter non pas sous la forme de quelques obscurs fichiers CSV, mais sous la forme d'indicateurs.
Vous pouvez utiliser un modèle, bien qu'il ne soit pas nécessaire de marquer les objectifs, il est clair qu'ils doivent être rentables.
Nous pouvons ensuite enseigner n'importe quel modèle, créer un conseiller expert et le tester objectivement avec l'indicateur initial.
Eh bien, c'est si vous voulez faire quelque chose, mais si vous voulez juste parler...
Plus il y a de bruit, plus il y a d'échantillons, cela devrait être clair au niveau des statistiques élémentaires, et les données du marché sont très bruyantes, le recyclage est un autre problème, si vous enseignez des caractéristiques correctement construites et un ciblage correct alors sur un test avec des dizaines ou des centaines de milliers d'échantillons, le recyclage est vraiment difficile à réaliser. C'est ce qui est bien avec les grands ensembles de données, ils sont difficiles à recycler, à moins que le scientifique des données ou l'algotrader ne soit un mazahiste ou un quasi-marketer et ne mélange les cibles avec les caractéristiques. Raison évidente de s'inquiéter - la puce a une corrélation avec la cible de plus de 3-5%, donc il faut qu'elle pète, et il vaut mieux construire les fics de façon à ce qu'il n'y ait pas une telle possibilité en principe, cela compliquera un peu les algorithmes, mais cela permettra probablement de se débarrasser de La principale erreur des algotraducteurs débutants.
Vous êtes tous en train de gronder les traders de marché proche, moi aussi, mais vous semblez être cool, algotrader de marché et, à en juger par vos posts, vous savez quelle période enseigner et sur laquelle trader.
Mais je ne sais pas et quand j'ai vu la discussion d'hier, je ne me suis pas impliqué et j'ai décidé de l'essayer, donc je me suis entraîné en démo sur EURUSD M1 du 8 au 18 octobre, aussi longtemps que j'ai pu chez mon courtier et j'ai exécuté l'EA en temps réel.
Il réalise donc des bénéfices jusqu'à présent, mais la question qui se pose à vous, en tant qu'expert, est la suivante : quand commencera-t-il à perdre, login - 2096584180, mot de passe - na3tbvr, Tradize-Demo, mais surtout, pas sur les vaisseaux spatiaux qui rôdent dans la vaste étendue du grand théâtre (c)).
L'échantillon d'apprentissage est minuscule, la logique du testeur et de l'optimiseur n'est pas transparente (boîte noire)...
Conclusion - 99,99999999999% que cet EA est aléatoire, l'équité est une errance géométrique aléatoire avec une pente descendante due aux coûts de transaction.
En fonction de la fréquence des transactions, je ne peux vang négatif SR<-0.5 pour l'année.
1. il y a le trading en temps réel, le testeur MT4, le réseau neuronal.
2. la réponse est 100% fausse - le conseiller expert n'est pas aléatoire.
3. formés sur 8 jours de données de trading, mais prévoyant pour un an...? :)
ZS : J'ai demandé spécifiquement, par exemple - le ratio de la période de négociation à la période de formation à 30% et le conseiller va commencer à perdre après-demain, ou 10% - aujourd'hui, mais puisque la science est silencieuse ...
Conclusion - 99,99999999999% que cet EA est aléatoire, l'équité est une errance géométrique aléatoire avec une pente descendante due aux coûts de transaction.
hmm, c'est ma photo, qu'est-ce que tu peux y voir ?
;)
aléatoire je te dis
Je dirais aussi que ce n'est pas possible parce que ce n'est jamais possible. (c) Et il n'est pas réaliste de s'entraîner sur 50 transactions, mais nous devons observer 30 à 40 transactions supplémentaires (soit 3 à 4 jours) pour tirer des conclusions. Si on les voit, bien sûr.
Mais, en général, c'est déjà étrange.
Aléatoire, je te le dis.
Voici son parcours d'essai - et vous appelez ça du hasard ?