L'Apprentissage Automatique dans le trading : théorie, modèles, pratique et trading algo - page 1120

[Supprimé]  
Cen'est pas le cas :
Dans ce cas, et avec votre jeu de données... désolé, mais beaucoup de gens vous ont dit à plusieurs reprises qu'il faut au moins des milliers d'échantillons, et étant donné le caractère bruyant des données de marché, il est préférable d'avoir des centaines de milliers de points, mais quand vous apprendrez Java et utiliserez XGB par exemple, vous rirez de votre persistance dans le passé ;))

cette déclaration est incorrecte

[Supprimé]  
Mihail Marchukajtes:

J'ai donc trouvé une métrique améliorée pour le coefficient de Matthews, mais que puis-je dire si vous soufflez de telle façon et de telle autre non. :-(

Je suis coincé avec le passage d'un tableau d'une classe à une autre, et l'enfer... personne à qui demander :-(

pourquoi s'embêter avec les métriques quand vous avez les vôtres pour le CT ? par exemple, vous pouvez mesurer le facteur de profit sur les échantillons et c'est tout.

et les estimations du modèle interne sont secondaires, car la plus petite erreur ne signifie pas la plus grande stabilité avec de nouvelles données

il suffit de choisir un critère externe d'évaluation à travers la performance du métier sur les nouvelles données

vous n'avez pas un grand échantillon pour le test vous allez juste lécher la vis... un petit échantillon pour un plateau n'est pas critique, tout est ok

[Supprimé]  
C'est juste que le modèle pèsera un gigaoctet :

Vous pourriez argumenter, mais sur le marché, ce n'est pas du tout une question de fidélité\notamment de fidélité, c'est plus important de faire en sorte que cela fonctionne, et avec moi, généralement, plus il y a d'échantillons, meilleur est le résultat))).

il suffit de prendre timber ou xgb - ils ne se soucient pas du nombre de samples à réapprendre :) c'est juste le modèle qui pèsera des gigs

mais l'énumération récursive des caractéristiques avec des métriques externes a commencé à donner des résultats, même sur de petits sous-échantillons, et même des métriques externes.
 
Vizard_:

Tendance = 100k lignes. Sur les 8k+(test)restants, vous appliquez le modèle. Les données sont mélangées.
La métrique est le logloss. Résultat, affichez-le. Tendance =... test =...

Cela ne se fait pas avec les séries chronologiques, bien sûr. Mais pour des raisons d'intérêt, je l'ai mis dans le LightGBM presque par défaut sans toucher aux données du tout :

Train : 0.6879388421499111

Test : 0.6915181677127092


Test des sources, bonus avec CatBoost :

https://yadi.sk/d/55DDn-hViNWP6Q


Quels sont vos résultats ?

test_xz.ipynb
test_xz.ipynb
  • disk.yandex.ru
Посмотреть и скачать с Яндекс.Диска
 
Maxim Dmitrievsky:

Pourquoi s'embêter avec les métriques quand le TS a ses propres métriques ? Par exemple, mesurer le facteur de profit sur les échantillons et c'est tout.

l'estimation interne du modèle est secondaire, car la plus petite erreur ne signifie pas la plus grande stabilité avec de nouvelles données

il suffit de choisir un critère externe d'évaluation à travers la performance du métier sur les nouvelles données

vous n'avez pas un grand échantillon pour le test vous allez lécher la vis ... et un petit échantillon pour un plateau n'est pas critique, tout est ok

Il devrait y avoir une quantité illimitée d'espace pour le test en général.

Si quelqu'un veut vérifier la qualité de ses données, il doit les présenter non pas sous la forme de quelques obscurs fichiers CSV, mais sous la forme d'indicateurs.

Vous pouvez utiliser un modèle, bien qu'il ne soit pas nécessaire de marquer les objectifs, il est clair qu'ils doivent être rentables.

Nous pouvons ensuite enseigner n'importe quel modèle, créer un conseiller expert et le tester objectivement avec l'indicateur initial.

Eh bien, c'est si vous voulez faire quelque chose, mais si vous voulez juste parler...

 
C'est un peu plus compliqué, mais cela vous éviterabien des soucis :

Plus il y a de bruit, plus il y a d'échantillons, cela devrait être clair au niveau des statistiques élémentaires, et les données du marché sont très bruyantes, le recyclage est un autre problème, si vous enseignez des caractéristiques correctement construites et un ciblage correct alors sur un test avec des dizaines ou des centaines de milliers d'échantillons, le recyclage est vraiment difficile à réaliser. C'est ce qui est bien avec les grands ensembles de données, ils sont difficiles à recycler, à moins que le scientifique des données ou l'algotrader ne soit un mazahiste ou un quasi-marketer et ne mélange les cibles avec les caractéristiques. Raison évidente de s'inquiéter - la puce a une corrélation avec la cible de plus de 3-5%, donc il faut qu'elle pète, et il vaut mieux construire les fics de façon à ce qu'il n'y ait pas une telle possibilité en principe, cela compliquera un peu les algorithmes, mais cela permettra probablement de se débarrasser de La principale erreur des algotraducteurs débutants.

Vous êtes tous en train de gronder les traders de marché proche, moi aussi, mais vous semblez être cool, algotrader de marché et, à en juger par vos posts, vous savez quelle période enseigner et sur laquelle trader.

Mais je ne sais pas et quand j'ai vu la discussion d'hier, je ne me suis pas impliqué et j'ai décidé de l'essayer, donc je me suis entraîné en démo sur EURUSD M1 du 8 au 18 octobre, aussi longtemps que j'ai pu chez mon courtier et j'ai exécuté l'EA en temps réel.

Il réalise donc des bénéfices jusqu'à présent, mais la question qui se pose à vous, en tant qu'expert, est la suivante : quand commencera-t-il à perdre, login - 2096584180, mot de passe - na3tbvr, Tradize-Demo, mais surtout, pas sur les vaisseaux spatiaux qui rôdent dans la vaste étendue du grand théâtre (c)).


 
J'ai un testeur de trading en temps réel МТ4, neuronet :

L'échantillon d'apprentissage est minuscule, la logique du testeur et de l'optimiseur n'est pas transparente (boîte noire)...

Conclusion - 99,99999999999% que cet EA est aléatoire, l'équité est une errance géométrique aléatoire avec une pente descendante due aux coûts de transaction.

En fonction de la fréquence des transactions, je ne peux vang négatif SR<-0.5 pour l'année.

1. il y a le trading en temps réel, le testeur MT4, le réseau neuronal.

2. la réponse est 100% fausse - le conseiller expert n'est pas aléatoire.

3. formés sur 8 jours de données de trading, mais prévoyant pour un an...? :)


ZS : J'ai demandé spécifiquement, par exemple - le ratio de la période de négociation à la période de formation à 30% et le conseiller va commencer à perdre après-demain, ou 10% - aujourd'hui, mais puisque la science est silencieuse ...

 
Je ne sais pas :

Conclusion - 99,99999999999% que cet EA est aléatoire, l'équité est une errance géométrique aléatoire avec une pente descendante due aux coûts de transaction.

hmm, c'est ma photo, qu'est-ce que tu peux y voir ?

;)

 
Jene sais pas :

aléatoire je te dis

Je dirais aussi que ce n'est pas possible parce que ce n'est jamais possible. (c) Et il n'est pas réaliste de s'entraîner sur 50 transactions, mais nous devons observer 30 à 40 transactions supplémentaires (soit 3 à 4 jours) pour tirer des conclusions. Si on les voit, bien sûr.

Mais, en général, c'est déjà étrange.

 
Je vous dis que c'est sa course dans le testeur - et c'est aléatoire ?

Aléatoire, je te le dis.

Voici son parcours d'essai - et vous appelez ça du hasard ?

Dossiers :