L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 397

 
Mihail Marchukajtes:

J'ai une version abrégée, c'est le résultat du jeu dont j'ai posté juste au-dessus.

Mais là encore, il m'a fallu presque une journée pour l'optimiser.
 
Dr. Trader:

Les résultats de l'évaluation de l'importance sont les suivants. Plus le prédicteur est élevé dans le tableau, mieux c'est. SeulsVVolum6, VDel1, VVolum9, VQST10 ont passé le test.

Dans rattle, nous pouvons construire 6 modèles à la fois sur ces 4 prédicteurs et le SVM montre une précision d'environ 55% sur les données de validation et de test. Pas mal.


Est-il possible d'obtenir le fichier source ? Je veux comparer ce résultat avec mon approche.

Le résultat de 55% est très mauvais sur ces 6 prédicteurs.

 
SanSanych Fomenko:


Est-il possible d'obtenir le fichier source ? Je veux comparer ce résultat avec mon approche.

Le résultat de 55% est très mauvais sur ces 6 prédicteurs.

Dossiers :
BuySell.txt  368 kb
 
Mihail Marchukajtes:

Mais là encore, il m'a fallu presque une journée pour l'optimiser.

Err... non, j'ai besoin de quelque chose pour 15 minutes :) alors je vais enlever la moitié des prédicteurs
 
Mihail Marchukajtes:

Franchement, je ne sais même pas comment il est organisé. Je pense que ça se passe comme ça. L'échantillon est divisé en deux parties : une partie test et une partie formation. Une grille est entraînée sur une partie et testée sur l'autre. Un autre au contraire est formé sur le second, et testé sur le premier, puis le résultat est additionné et le résultat global est calculé, juste comme ça IMHO

cette méthodologie s'applique à tout apprentissage automatique.
Est-ce que Maxim est sur le sujet ?

Le classificateur de Reshetov est-il toujours un neurone unique, et non un réseau ? Ou est-ce un réseau de neurones de Reshetov ?

 

Mais je voudrais m'adresser à tout le monde. Il n'y a pas de données dans le grand ensemble à partir de 05.29. C'est-à-dire que vous pouvez l'enseigner entièrement et obtenir le modèle, puis vous pouvez charger le modèle dans MKUL et voir comment il se comporte pendant ces deux semaines. Il s'agira d'une mesure de la performance du modèle. En d'autres termes, le modèle qui gagne le plus avec un drawdown minimal et qui gagne. J'ai optimisé un jeu raccourci et le modèle a fonctionné comme ceci

Voyons comment VOS modèles vont se comporter dans ce domaine ????

 
Maxim Dmitrievsky:

euh... non, j'ai besoin de quelque chose pour 15 minutes :) ensuite je supprimerai la moitié des prédicteurs

Puis laissez del,vdel,volun,vvolum.
 
elibrarius:

cette méthodologie s'applique à tout l'apprentissage automatique.
Peut-être que Maxim est sur le sujet ?


Je vous ai donné un lien vers son site web, il y a une description du modèle. Je ne sais même pas comment le caractériser, il est écrit Nuclear Machine + Vector Machine. C'est plus compliqué que dans la version mt5 + entraînement avec adversaire au lieu de sélectionner les poids dans l'optimiseur, mais il sort les mêmes poids pour chacun des prédicteurs.
 

Maintenant, rêvons un peu et imaginons que nous disposons d'une machine avec 100 cœurs pour l'optimisation et que nous exécutons un jeu de données complet avec 452 lignes et un ensemble complet de colonnes et que, dans un temps raisonnable, l'optimiseur a tout calculé, quel serait le modèle ????.

Tout d'abord, les variables d'entrée seront plus de 10-12 et la taille du polynôme sera assez grande. Qu'est-ce que ça vous dit ? Que le modèle est multi-paramétrique, c'est-à-dire qu'il prend en compte de nombreux facteurs du marché (ce qui est tout à fait pertinent car il est ridicule de prédire le marché sur la base d'un seul modèle (à titre d'exemple)). La longueur du polynôme suggère que le modèle est très flexible. En fin de compte, ce modèle fonctionnera longtemps avec un niveau de qualité approprié lorsque la courbe d'équilibre est dirigée vers le haut avec un angle de 45 degrés sans ruptures ni creux brusques. Ne serait-ce pas un rêve devenu réalité ? ? ???

Et pour ce qui est du grand ensemble, je dirai que l'ensemble du contrat à terme de juin y est collecté. En d'autres termes, vous devez entraîner le modèle avec ces données et obtenir un bon résultat dans l'entraînement et le test et ce modèle fonctionnera pour le reste de sa vie, car il a appris l'ensemble du contrat à terme. Le prochain contrat sera exactement le même en termes de relation entre les sorties et les entrées, je pense. C'est une forme de graal, qui fonctionne avec des erreurs, mais suffisamment longtemps. Et si vous formez le réseau sur les données annuelles, avec le niveau de qualité adéquat, vous connaîtrez le marché. Quelque chose comme ceci ....

 
Mihail Marchukajtes:


Eh bien, oui. Il n'y a que l'ancienne version et l'approche de base. Mais comme la pratique l'a montré, l'approche à deux grilles augmente considérablement la capacité de généralisation. Le résultat de l'optimiseur est le fichier suivant. Vous pouvez voir deux grilles et une normalisation différente pour chaque grille, puis les résultats sont combinés à la toute fin.

Donc Reshetov a fait un bon produit, vous n'auriez pas dû le critiquer pour être honnête .......

J'ai regardé le fichier, il y a 8 coefficients ; l'entrée est de23; c'est-à-dire qu'il y a un neurone pour travailler avec 3 entrées. Je suppose que pendant vingt-quatre heures, votre programme compte les 3 entrées sur 100 qui doivent être transmises à ce neurone. Je pensais que le neurone était étendu à au moins 10 entrées...

getBinaryClassificator1(x0, x1, x2, x3, x4, x5, x6, x7);

Raison: