L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 3345

 
Forester #:

Que voulez-vous ? Nous travaillons presque avec la randomisation. Il ne s'agit pas de la demande de glaces en fonction de la température, comme dans le premier livre sur Kozul, qui a été lancé ici il y a six mois)))))

Il faut donc essayer de bien mesurer la dépendance de ce "Presque" aux signes).

 
Aleksey Nikolayev #:

Merci, c'est un article intéressant et de qualité qui s'appuie sur une littérature abondante.

Il semble qu'ils ne considèrent pas le type d'incertitude qui est intéressant - la dépendance probabiliste de la sortie sur les attributs. Ils étudient deux autres types d'incertitude - les incertitudes liées à l'imprécision des attributs et des paramètres. Ils les nomment joliment - incertitude aléatoire et épistémique. Nous devrions appeler notre variante "incertitude cible" par analogie).

Dans notre cas, les "erreurs de mesure" des attributs sont en principe absentes, et l'incertitude des paramètres du modèle est difficilement séparable de notre "incertitude cible".

Il me semble que la somme de ces incertitudes devrait donner l'incertitude cible. Mais je ne me suis pas vraiment penché sur la question.

L'approche est à peu près la même que dans kozula via meta lerners, mais ici nous proposons également un moyen de désassembler un modèle et de l'utiliser comme un ensemble de classificateurs tronqués, au lieu d'un ensemble de plusieurs classificateurs, pour plus de rapidité.

 
Maxim Dmitrievsky #:


Je ne comprends pas d'où vient l'estimation du carré R ?

J'avais auparavant l'impression que cette estimation s'appliquait aux régressions si tous les coefficients de régression étaient significatifs. Dans le cas contraire, le R au carré n'existe pas....

 
СанСаныч Фоменко #:

Je ne comprends pas d'où vient le score de R square ?

J'avais auparavant l'impression que cette estimation était applicable aux régressions si tous les coefficients de régression étaient significatifs. Dans le cas contraire, le R au carré n'existe pas....

C'est juste quelque chose que le testeur montre pour des comparaisons rapides de différentes courbes d'équilibre.

Il n'intervient nulle part ailleurs.

 
Et il me semble que la direction même est erronée à la base...
Je pense qu'il ne faut pas construire le TS sur toutes les données, mais au contraire choisir une situation/modèle qui fonctionne déjà au moins à 50/50 et essayer de séparer fonctionne/pas fonctionne, la classification binaire habituelle.
 
mytarmailS #:
choisir une situation/un modèle qui fonctionne déjà Au moins 50/50

Ils fonctionnent tous à 50/50.

 
Ivan Butko #:

Ils travaillent tous à 50/50.

C'est ce qu'il semble.

C'est comme une chance sur deux de rencontrer un dinosaure. Cela n'a rien à voir avec la probabilité réelle.
 
mytarmailS #:
C'est comme si...

C'est comme une chance sur deux de rencontrer un dinosaure. Ça n'a rien à voir avec la probabilité réelle.

Si vous notez une figure dans le scénario et que vous regardez les statistiques de l'avenir, la distribution des hausses et des baisses, à la fois par le nombre de bougies et par le nombre de points, tend vers 50/50.

C'est ce qui concerne les figures issues des chandeliers (le rapport des HLC entre elles), et je n'ai pas compté les intemporelles, car elles sont trop peu nombreuses pour des statistiques d'au moins 1000 figures.

Ainsi, si en 2022 la figure montre un forward dans 55% des bougies à la hausse et que la valeur moyenne des bougies est 5-10% plus élevée qu'en Sel, alors en 2023 le gain sera toujours de 50/50, sans aucune faveur.

 
Ivan Butko #:

Si vous marquez une figure dans le script et que vous regardez les statistiques du futur, la répartition des hausses et des baisses, tant par le nombre de bougies que par le nombre de points, tend vers 50/50.

C'est le cas des figures en chandelier (le rapport des HLC entre elles), et je n'ai pas compté les intemporelles, car elles sont trop peu nombreuses pour des statistiques d'au moins 1000 figures.

Ainsi, si en 2022 la figure montre un forward dans 55% des bougies à la hausse et que la valeur moyenne des bougies est 5-10% plus élevée qu'en Sel, alors en 2023 le working off sera toujours de 50/50, sans aucun privilège.

Et si vous ajoutez un Stop and Take adéquat, est-ce que ce sera aussi 50/50 ?

Ou bien prenez-vous les profits et les pertes en fonction d'une moyenne définie ?
 
mytarmailS #:
Et si vous ajoutez un Stop et un Take adéquats, est-ce que ce sera aussi du 50/50 ?

Ou bien prenez-vous les profits et les pertes en fonction d'une moyenne éphémère ?
Comment une moyenne statistique peut-elle être éphémère ?
Elle est ce qu'elle est : en moyenne tant de hausse, en moyenne tant de baisse.
Sur cette base, vous pouvez jouer avec le take et le stop.

Mais c'est une demi-mesure, car si TP et SL dépendent des moyennes, ils fonctionnent aussi à 50/50.

Et si les moyennes ne vous intéressent pas, alors TP et SL sont un pur ajustement, un pur 50/50, un jouet dans l'optimiseur.

L'idée est différente : les statistiques des modèles simples dépendent des tendances à long terme. Et sur la base du travail des traders manuels, ils négocient des configurations indépendantes qui, à long terme, sont également à la baisse et à la hausse.

Mais les figures complexes apparaissent rarement. La seule option qui reste est d'ignorer le petit échantillon de statistiques et d'essayer de les transmettre au réseau neuronal.