L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 111

 
Mihail Marchukajtes:
Et vous continuez à essayer de limiter le marché des minutes dans 5 ans ?????? Ces 71 observations, deux semaines de trading sur 5 minutes si quoi que ce soit....... Et seulement acheter. Alors allez-y..... Ou êtes-vous dégonflé ?
de quoi parle-t-il... c'est fou.
 
Dr. Trader:

Comme je l'ai déjà dit, cette métrique est inutile.

Les données sont divisées de manière aléatoire en deux parties à peu près égales, puis le modèle est entraîné sur la première partie uniquement, et testé sur les deux parties à la fois. Une généralisabilité de ~75% signifie que le modèle à la fin prédit correctement 75% de généralement tous les exemples dans le fichier.
Le modèle peut atteindre 75 % de plusieurs façons :
1) Le modèle est entraîné à une précision de 100 % sur les données d'entraînement, et échoue complètement sur les nouvelles données dans la deuxième partie du fichier, où il obtient 50 % (comme à pile ou face). La moyenne serait exactement de 75%. Il s'agit d'une très mauvaise évolution et elle sera mauvaise dans le commerce.
2) Le modèle a été entraîné à une précision de 75 % sur les données d'entraînement et il a affiché la même précision de 75 % sur les données de test, ce qui représente à nouveau 75 % en moyenne. Dans cette situation, c'est le meilleur scénario, il y a une chance de gagner quelque chose.
3) Toute option intermédiaire entre les deux.

Votre option est probablement plus proche de la première. Il faut être très chanceux pour trader avec de tels résultats, je suppose que vous n'avez pas perdu votre dépôt uniquement grâce à l'indicateur qui sert de signal principal (sequent, ou autre). Je pense qu'un conseiller expert basé sur ce seul indicateur donnera d'aussi bons résultats que l'indicateur + jPrediction.

Comment savoir comment calculer le pouvoir de généralisation ? Reshetov le sait. Je pense que le calcul est basé uniquement sur des données de test, comme il l'a dit avant....... Si les séquences classiques étaient exploitables, je n'utiliserais pas le prédicteur, mais hélas... c'est aussi épuisant que n'importe quoi d'autre. L'ajout du classificateur, par contre, l'améliore nettement. Une fois de plus, j'écrirai que 71 observations est le travail de TS pendant quinze jours sur 5 minutes. C'est un intervalle tout à fait acceptable pour cette période. Je n'ai pas l'habitude de le faire pendant une demi-année ou plus. Je me suis entraîné pendant 2 semaines, j'ai gagné un jour et c'était fini, alors que vous êtes toujours à la recherche du graal. Et oui, je forme des modèles tous les jours. Le matin. La bonne nouvelle, c'est que le temps d'optimisation est maintenant TRÈS raisonnable......
 
mytarmailS:
Qu'est-ce qu'il raconte... C'est un tas de conneries.
Qu'est-ce que tu ne comprends pas ? ? ??? Ou est-ce au-delà de votre compréhension ????.
 
Mihail Marchukajtes:
Qu'est-ce que tu ne comprends pas ? ? ??? Ou est-ce au-delà de votre compréhension ????.

Je vous demande comment vous mesurez la capacité totale et vous me parlez d'années d'histoire et d'autres absurdités...

Je ne peux pas mesurer la capacité générale d'une manière et vous ne pouvez pas la mesurer d'une autre, mais vous n'avez aucune idée de la façon de la mesurer, tout ce que vous pouvez faire est de regarder les chiffres dansjPrediction sans la moindre idée d'où et comment ils viennent, alors quand ils commencent à vous poser des questions spécifiques, vous commencez à dire des bêtises sur les années d'histoire etc... Arrêtez... S'il vous plaît...

 
mytarmailS:

Je vous demande comment vous mesurez la capacité totale et vous me parlez d'années d'histoire et d'autres absurdités...

Je ne peux pas mesurer la capacité générale d'une manière et vous ne pouvez pas la mesurer d'une autre, mais vous n'avez aucune idée de la manière de la mesurer, tout ce que vous pouvez faire est de regarder les chiffres dans lajPrediction sans la moindre idée d'où et comment ils proviennent, alors quand ils vous posent des questions spécifiques, vous commencez à dire des bêtises sur les années d'histoire etc... Arrêtez... s'il vous plaît...

J'ai peut-être déjà expliqué que j'utilise le prédicteur de Reshetov, comment il mesure la généralisabilité, ce sont des questions pour Yury. Demandez-lui. Bien qu'il ait donné les formules et que je m'en souvienne en termes généraux, je ne comprends pas pourquoi vous me demandez cela. Je suis juste un utilisateur de son programme et rien de plus......
 
Mihail Marchukajtes:
Je pense que le calcul est basé uniquement sur des données de test.

Si c'est le cas, j'en suis heureux, c'est beaucoup mieux.

Dans tous les cas, le fronttest montre de bien meilleurs résultats. J'ai divisé votre fichier en 2 parties (sans mélange, juste dans l'ordre), la première partie a 50 lignes, la seconde 19. Donc jPrediction n'a pas accès aux exemples du second fichier, et ce sera vraiment de nouvelles données pour le modèle.

Au final, sur le second dossier, JPrediction n'a donné une réponse que dans 9 cas. Vrai dans 5 cas, faux dans 4. La précision est d'environ 50%, rien de bon dans ce résultat.

Dossiers :
 
Dr. Trader:

Si c'est le cas, j'en suis heureux, c'est beaucoup mieux.

Quoi qu'il en soit, le fronttest montre un bien meilleur résultat. J'ai divisé votre fichier en 2 parties (sans mélange, juste dans l'ordre), la première partie a 50 lignes, la seconde 19. Donc jPrediction n'a pas accès aux exemples du second fichier, et ce sera vraiment de nouvelles données pour le modèle.

Au final, sur le second dossier, JPrediction n'a donné une réponse que dans 9 cas. Correct dans 5 cas, faux dans 4. La précision est d'environ 50%, rien de bon dans ce résultat.

D'accord. Besoin de travailler sur les données d'entrée.....
 
Dr.Trader:

Si c'est le cas, j'en suis heureux, c'est beaucoup mieux.

Dans tous les cas, le fronttest montre de bien meilleurs résultats. J'ai divisé votre fichier en 2 parties (pas de mélange, juste dans l'ordre), la première partie a 50 lignes, la seconde 19. Donc jPrediction n'a pas accès aux exemples du second fichier, et ce sera vraiment de nouvelles données pour le modèle.

En conséquence, sur le deuxième fichier, JPrediction n'a donné une réponse que dans 9 cas. Correct dans 5 cas, faux dans 4. La précision est d'environ 50%, il n'y a rien de bon dans ce résultat.

19, 50, qui est plus. Prenez n'importe quel exemple de la base de données avec au moins des centaines de lignes.

Pour moi, ce logiciel n'est pas adapté, ne serait-ce que parce que je préfère moi-même prendre les paramètres et décomposer les données. Mais en tant que niveau d'entrée, je pense que ce serait intéressant.

 

Reshetov !

Mon offre tient toujours.

 
mytarmailS:

Bonjour Yuri !

Il y a des questions )) sur la recherche séquentielle ...

disons que nous avons 10 prédicteurs

1, 2, 3, 4, 5, 6, 7, 8, 9, 10

le groupevert est le groupe de prédicteurs qui a démontré la meilleure capacité de généralisation ; les autres prédicteurs N+1 seront ajoutés à ce groupe.

le grouperouge, c'est le groupe qui est légèrement plus mauvais que le groupe vert etil ne participera pas aux tests, tous les tests sont déjà concentrés sur le groupe vert.

Question : et si après tous les essais avec d'autres prédicteurs N+1 un par un, il s'avère que dans le résultat final le groupe rouge a une plus grande capacité de généralisation, est-ce aussi tout à fait réaliste, ou est-ce que je comprends mal quelque chose ? ???. Veuillez clarifier.

Si vous voulez obtenir une réponse sans ambiguïté sans regarder les données et les algorithmes, vous feriez mieux de vous rendre chez SanSanych Fomenko, car celui-ci, avec son visage intelligent, vous donnera des instructions "précises et précieuses" sur n'importe quel sujet, quelle que soit son ambiguïté.

Et si vous voulez une réponse plus précise, faites un test A/B, c'est-à-dire que dans un cas, essayez d'attacher le rouge et le noir au vert, et dans l'autre, seulement le noir. L'option qui obtient la meilleure généralisation sur la base des résultats de l'expérience est la plus correcte pour votre tâche.

Le fait est que les résultats de l'expérience sont toujours les critères de la vérité.

Par exemple, je testais aujourd'hui le centrage des données pour jPrediction. Les résultats ont été soit lamentables, soit légèrement meilleurs sur différents échantillons. Bien que pour la grille de rétropropagation, le centrage donne une amélioration notable. J'ai dû laisser la normalisation linéaire.

Et si je ne faisais pas de tests A/B, mais qu'au lieu de l'expérience, j'utilisais des "connaissances toutes faites" tirées d'un petit livre ou d'une conférence sur l'apprentissage automatique, ou que je demandais à un monsieur je-sais-tout, on me répondrait que le centrage est soi-disant "meilleur" que la normalisation linéaire. Bien que l'expérience montre que cela n'est pas vrai sans ambiguïté pour tous les algorithmes.

C'est le genre de tarte.

Raison: