L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 1250

 
Farkhat Guzairov:

Bon sang, tout ce que vous faites manuellement devrait être fait par un réseau neuronal, mais de cette façon..... Perte de temps, et si le résultat est négatif, alors une mer de frustration et de fouille à la recherche d'autres méthodes.

Eh bien, comment le faire manuellement, tout est automatisé, il y a juste des étapes, qui nécessitent un contrôle manuel et c'est à cause de l'incertitude, comment se comporter exactement sur eux.

Et le fait que quelqu'un doive quelque chose, j'en doute fort...

Le résultat - qui le saura jusqu'à ce que l'avenir arrive...

 
Vizard_:

Très probablement, les décalages de 1 et -1 (ou un prédicat de ceux-ci les décrivant) amélioreront (ou améliorent déjà) la coupe 0, puisque "ne pas entrer".
Pour ma part, j'ai immédiatement rejeté cette approche et j'ai commencé à utiliser uniquement l'approche binaire.
classification (flip). Je regarderais les dépendances des différentes volatilités, si elles influencent ou non, etc.
J'aurais fait trois classificateurs binaires. Vous pouvez par exemple ne regarder qu'un seul "achat". Trop compliqué...

J'ai un système de tendance sur les minutes, donc le binaire seul ne peut pas être utilisé immédiatement, parce que pendant les bémols, vous devez être sur la barrière et ne pas juste retourner la situation. En théorie, il est possible d'utiliser séparément l'achat/la non-transaction et la vente/la non-transaction, mais nous avons besoin d'un large échantillonnage et tout n'est pas bon avec cela. Dans ketbust, j'ai un signal à entrer et le vecteur (achat/vente) est sélectionné séparément - quelque chose semble fonctionner, mais il y a encore des expériences et il est trop tôt pour en être sûr. Bien sûr, nous pouvons faire trois symboles binaires, mais ce ne sera pas facile dans le sens de combiner ce cas en un seul dessin...

La volatilité affecte bien sûr le résultat, juste sur la poussée et vous pouvez gagner, la question est l'échelle.
 
Vizard_:

Comprendre, rechercher, les conclusions s'appliquent également au signal inverse.
Comment cela affecte-t-il non pas le résultat, mais le placement (la sélection) des prédicteurs...

Je ne vais pas faire semblant de vous comprendre, veuillez développer votre point de vue.

 
SanSanych Fomenko:

Non.

J'utilise depuis longtemps l'AGC finalisée sur mcl4 en termes d'adaptation de période, mais cela ne sert pas à grand chose : elle s'estompe comme tout le reste. De temps en temps, j'ai dû intervenir manuellement.

S'il s'agit de filtres, il y a un curieux paquet lisse. L'intérieur lisse s'assoit sur Kalman avec l'espace d'état. Donne des mashups de très bonne qualité, et avec une extrapolation (prévision) pour plusieurs pas en avant.

Djuric est une merde totale.
Kalman, d'autre part, peut avoir besoin d'être asservi. Mais je pense que Kalman, dans notre cas, ne sera pas meilleur que les MAs.
 
Yuriy Asaulenko:
Djuric, c'est n'importe quoi.
Kalman, par contre, devrait probablement être fait. Mais il semble que Kalman, dans notre cas, ne sera pas meilleur que les MAs.

On ne sait pas ce qui est une connerie et ce qui ne l'est pas.

Nous devrions examiner la capacité de prédiction d'un prédicteur particulier pour une variable cible particulière. Et mieux encore, sa variabilité avec le mouvement des fenêtres.

 
Aleksey Vyazmikin:

Eh bien, comme dans manuel, tout est automatisé, il y a juste des étapes qui nécessitent un contrôle manuel et cela est dû à l'incertitude de savoir comment se comporter exactement sur elles.

Et le fait que quelqu'un doive quelque chose, j'en doute fort...

Et le résultat - qui le saura jusqu'à ce que l'avenir arrive...

Sur la base du code ci-dessus, vous avez un algorithme clair d'actions dans certaines conditions, dans ce cas, lorsque vous avez des données d'entrée et le résultat souhaité, neuronet vous aidera, mais vous devrez apporter des modifications au code manuellement après le prochain changement de tendance du marché.

C'est à vous de décider ce que vous voulez faire, mais j'utiliserais de toute façon un neurone entraîné.

 
À propos du connu et de l'inconnu, si vous pensez comme ça, vous ne savez pas non plus comment les événements vont se dérouler, ici la décision prise par vous ou par n'importe qui d'autre est une question de probabilité, je veux dire, vous devez supposer que la décision aura un résultat de 50/50, dans ce cas, peu importe qui l'emportera, vous ou le réseau neuronal.
 
Vizard_:

Le poids des prédicteurs change-t-il en fonction de l'ox. Ça semble être un ajustement sophistiqué.
Et il y a aussi le multiclassage dans la passerelle. Faites-le avec une validation croisée, voyez s'il y a des erreurs dans les fautes, etc.
Peut-être que ça marchera pour un idiot... et tous ces efforts ne sont pas vraiment nécessaires...

Comment proposez-vous de mesurer le poids et la volatilité ? L'expérimentation ne me dérange pas.

La multiclasse est là, mais pas de déchargement de modèle, sauf dans leur code binaire, que je n'ai aucune idée, même en théorie, de comment connecter et faire fonctionner.

Il y a une époque entière avec catbust, où j'expérimente avec des ensembles de prédicteurs (en supprimant partiellement - 512 combinaisons), avec des poids aléatoires de sélection de prédicteurs racine (200) - cela fait déjà 100k modèles, et j'ai deux partitions de ce type. Oui, il y a des modèles intéressants dans tout cela et il y en a de complètement dérisoires (rentables sur l'échantillon test et apprenant, mais dérisoires ou proches de zéro sur l'échantillon indépendant), mais il n'y a pas non plus de garantie qu'ils continueront à fonctionner. Maintenant (22.12.2018), j'ai commencé une nouvelle création de modèle, mais marqué tous les prédicteurs comme catégoriques, ce qui est mon idée à l'origine (parce que beaucoup sont déjà coupés en intervalles irréguliers et convertis en valeurs entières), dans la nouvelle année, le plan est de terminer le traitement - voir s'il y a une différence, parce que les modèles avec des caractéristiques non catégoriques ont été préparés dans ce volume en 1,5 jours, et ici au moins 10....

Fit ou pas - difficile à dire, hier j'ai écrit que je suis plus enclin à considérer comme fit un modèle qui peut, par son volume (nombre de feuilles), mémoriser de nombreuses variations et combinaisons à la fois, et j'ai un modèle ne dépassant pas 100 feuilles.... Bien sûr, mon principal problème est le manque de données - je travaille sur l'instrument Si, je pense ajouter les futures EURUSD mais je dois valider les prédicteurs - problème de métrique.

 
Farkhat Guzairov:

Sur la base du code ci-dessus, vous disposez d'un algorithme clair d'actions dans certaines conditions. Dans ce cas, lorsque vous disposez de données d'entrée et du résultat souhaité, un réseau neuronal vous aidera, mais sinon vous devrez constamment apporter des modifications manuelles au code lorsque la tendance du marché change.

C'est à vous de voir ce que vous voulez faire, mais je connecterais quand même un réseau neuronal (formé) à ce processus.

J'ai des points d'entrée et je ne sais pas si je dois entrer ou non - c'est la tâche du MO.

Comme je l'ai déjà dit, je ne connais pas de réseau neuronal rapide capable d'absorber un grand (300-500) volume de neurones d'entrée... mais donner des feuilles déjà sélectionnées, disons, à un réseau neuronal ou à un arbre à nouveau...

Je ne comprends pas les changements dans le code, pourquoi cela devrait-il être le cas - pensez-vous que les tendances n'ont pas changé en 5 ans ?
 
Vizard_:

Je ne suggère rien, j'ai juste écrit comment je le ferais moi-même. Et les trois classes obtenues seraient juste collées dans les ts...

Comment la mettre en place ? Ensuite, il faut faire une sorte de passerelle entre python ou R - c'est une forêt sombre pour moi.

Raison: