L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 391

 
Dr. Trader:

C'est dans le RNN de Reshetov, le modèle de probabilité.

Et puis il y a jPredictor, que Mikhail utilise. Le neurone de Reshetov, il y a beaucoup d'entrées, et une sorte de formation au lieu de la descente de gradient.


J'ai essayé de résoudre le problème du premier post sur le NS d'Alglib. Le réseau compte 20-5-1. Réussi. Mais très longtemps, vous avez environ 2 secondes de solution. Mes calculs font une moyenne de 10-20 min, il y a des variantes à 2 min d'un cycle, mais apparemment il trébuche par accident, je dois régler 20 cycles d'entraînement pour être fiable... Ou 100000 itérations, comme dans la variante ci-dessous

Alerte : Erreur moyenne en formation (60.0%) section =0.000 (0.0%) nLearns=2 NGrad=68213 NHess=0 NCholesky=0 codResp=2
Alerte : Erreur moyenne en validation (20.0%) section =0.000 (0.0%) nLearns=2 NGrad=68213 NHess=0 NCholesky=0 codResp=2
Alerte : Erreur moyenne sur la section test (20.0%) =0.000 (0.0%) nLearns=2 NGrad=68213 NHess=0 NCholesky=0 codResp=2

Temps de calcul=22.30 min
0 poids total=3.2260
1 poids total=0.0000
2 poids total=3.2258
3 poids total=0.0000
4 poids total=8.7035
5 poids total=0.0000
6 poids total=3.2253
7 poids total=0.0000
8 poids total=3.2258
9 poids total=0.0000
10 poids de la somme=3,2251
11 poids de la somme=0,0000
12 poids de la somme=0,0000
13 poids de la somme=0,0000
14 poids de la somme=0,0000
15 poids de la somme=0,0000
16 poids de la somme=0,0000
17 poids de la somme=0,0000
18 poids de la somme=0,0000
19 poids de la somme=0,0000

Je veux être plus rapide...
Si la tâche ne porte pas sur 20 entrées, mais sur 200, il faudra des dizaines d'heures.
En éliminant les données à faible corrélation avec les résultats ou à forte corrélation avec d'autres données, on supprime les données importantes, même si l'on a essayé la méthode LDA de Fisher, qui supprime également les données importantes. Le fait de passer au crible ces méthodes n'aide pas, au contraire, il entrave.

Il semble qu'une solution longue pour toutes les entrées une fois, le tri des entrées par la somme des poids et l'obtention d'un modèle pour une utilisation future reste. Puis réentraînement une fois par semaine, par exemple, sur le nombre tronqué d'entrées.

Je pensais que pour aller plus vite, je pourrais confier cette tâche à MS Azure pour obtenir les poids totaux des entrées et les utiliser ensuite dans mon modèle. J'ai expérimenté un peu, mais je ne vois pas d'où viennent les poids...

 
C'est vrai, les gars ! !! C'est ça, en utilisant l'optimiseur de Résolu. J'aimerais donc effectuer les calculs sur le GPU. Quelqu'un a-t-il déjà fait une telle chose ? Comme JPrediction est parallélisé, il suffit d'exécuter le programme sur le GPU. Quelqu'un sait-il comment exécuter un programme JAVA sur le GPU ? Je pense que des connaissances utiles seraient....
 
Mihail Marchukajtes:
C'est vrai, mes frères ! !! Je le fais, j'utilise l'optimiseur de Resolute. Je voudrais donc effectuer les calculs sur le GPU. Qui ferait ça ? Comme JPrediction est parallélisé, il suffit d'exécuter le programme sur le GPU. Quelqu'un sait-il comment exécuter un programme JAVA sur le GPU ? Je pense que des connaissances utiles seraient....

Pouvez-vous me donner un lien vers une version fonctionnelle et une description ?
 
Mihail Marchukajtes:
Bonjour à tous !!!! Je suis heureux que ce fil ne soit pas mort et qu'il soit toujours vivant, alors j'ai une question pour le public. J'ai un ensemble de données pour la formation, mais malheureusement, il est devenu si grand que la formation prend trop de temps. Quelqu'un peut-il construire un modèle avec son propre travail et ensuite nous verrons comment cela fonctionne ensemble !!!!!.
Votre ensemble, au contraire, est TRÈS petit avec 111 caractéristiques, 452 points. Mais si les données sont correctes (le ciblage n'est pas confondu avec les puces), alors il y a un avantage de 3-4% (précision - 53,5%), si pour un grand fonds d'investissement ou une banque, dans le trading à moyen terme c'est suffisant, pour un intrade avec un levier géant et quelques k$ de dépôt bien sûr pas.
 
Aliosha:
il y a un avantage de 3-4% (précision - 53,5%)
Quel modèle a été utilisé et dans quelle configuration ? Pourquoi avoir décidé que ce n'est pas un résultat aléatoire, je ne suis pas d'accord avec cet ensemble de données, puis 47%, puis 50, puis 53
 
Aliosha:
Votre ensemble, au contraire, est TRÈS petit avec 111 caractéristiques, 452 points. Mais si les données sont collectées de manière raisonnable (le ciblage n'est pas confondu avec les puces), alors il y a un avantage de 3-4% (précision - 53,5%), si pour un grand fonds d'investissement ou une banque, lorsque le trading à moyen terme est suffisant, pour un intrade avec un effet de levier géant et quelques k$ de dépôt bien sûr pas.

Je pense que cela serait suffisant pour un intraday également, si j'entre 50 pips mieux que le signal. Je pense que ce sera suffisant si nous entrons pour 50 pips de mieux que le signal. Vous gagnerez mieux que l'écart.
 
Maxim Dmitrievsky:

Pouvez-vous me donner un lien vers la version de travail et une description ?

Qu'est-ce que ça veut dire ? Un lien vers JPrediction ?
 
Aliosha:
Votre ensemble, au contraire, est TRÈS petit avec 111 caractéristiques, 452 points. Mais si les données sont collectées de manière raisonnable (le ciblage n'est pas confondu avec les puces), alors il y a un avantage de 3-4% (précision - 53,5%), si pour un grand fonds d'investissement ou une banque, lorsque le trading à moyen terme est suffisant, pour l'intraday avec un effet de levier géant et quelques k$ de dépôt bien sûr pas.

Je ne sais pas pour la petitesse. C'est comme un contrat à terme entier en 3 mois. La question est différente. Il me reste deux semaines qui ne sont pas dans le réseau. J'ai donc pensé construire un modèle et le faire fonctionner sur cet échantillon. Mais avec JPrediction, la formation prendra des semaines, ce qui n'est pas bon. C'est pourquoi je voulais obtenir le modèle en utilisant d'autres algorithmes et voir comment le modèle fonctionne.
 
Encore une fois, cet ensemble est destiné à la classification. C'est-à-dire que la variable de sortie porte déjà une prédiction. Si nous utilisons un modèle résilient, nous n'avons pas besoin de prédire la variable de sortie, il suffit de lui appliquer le modèle, car la sortie est déjà dans le futur. C'est tout, si vous me comprenez bien.
 

Une autre possibilité est d'exécuter le programme sur un GPU et d'augmenter la vitesse des calculs d'au moins 10 à 20 fois. Je pense qu'il y aurait des progrès ici..... Mais les informations sur Internet sont très anciennes et je n'arrive pas à comprendre comment faire. Je ne suis pas très bon en programmation. Je suis une poule :-)

L'idée derrière toute cette agitation est la suivante. L'algorithme utilisé n'a pas d'importance (bien que le mensonge, bien sûr, soit important). Il est important que le recyclage dans ce domaine soit réduit au minimum) Le type de données, la manière dont elles sont collectées et préparées pour la formation sont importants. C'est ce que je voulais vérifier. Je voulais vérifier s'il y a vraiment des poissons dans les données que je collecte. Voici un exemple.

Raison: