L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 3061

 
Aleksey Vyazmikin #:

Peut-être n'ai-je pas vraiment compris l'objectif de tout cela.... Mais il me semble que l'objectif est de détecter l'influence d'un nouveau facteur ou d'une valeur aberrante de la valeur passée du prédicteur sur l'indicateur (prix ou autre chose - la régression est surtout présente dans les exemples). La tâche consiste alors à détecter ces valeurs aberrantes lorsque la chronologie des événements reste inchangée (on ne peut pas randomiser les lignes d'échantillonnage pour les séries temporelles). Et il s'avère qu'il s'agit d'un événement rare ou d'un changement ponctuel. Il suffit alors d'examiner les changements dans la distribution de l'indice du prédicteur sur une fenêtre temporelle fixe. Les variables prédicteurs qui subissent un tel changement en sont la cause (ou peut-être pas - ici, je n'ai pas compris leur idée sur la manière de déterminer la cause ou l'effet), et si ces changements à différentes parties du test conduisent plus souvent à l'effet "le modèle ne fonctionne pas", alors nous devons faire en sorte que le modèle fonctionne plus soigneusement avec ces variables prédicteurs.....

Les prédicteurs et le traitement sont deux choses différentes. Le modèle causal travaille avec les résultats, pour déterminer l'ATE (effet moyen du traitement) si aucun trait n'est impliqué, ou le CATE (conditionnel ... ...) s'il y a des covariables (traits), en tenant compte d'une influence externe (par exemple une campagne publicitaire, qui est le tritment). Il s'agit de déterminer s'il y a eu un effet sur le groupe de contrôle. Ensuite, compte tenu de cet effet, vous pouvez analyser et améliorer votre modèle ou une certaine métrique.

... c'est vous qui essayez de comprendre comment appliquer quelque chose que vous ne savez pas comment appliquer.

suivez un cours d' introduction gratuit

 
Maxim Dmitrievsky #:

Les prédicteurs et les traitements sont différents. La méthode causale fonctionne avec les résultats, pour déterminer l'ATE (effet moyen du traitement) si aucun trait n'est impliqué, ou le CATE (conditionnel ... ...) s'il y a des covariables (traits), en tenant compte d'une influence externe (par exemple une campagne de publicité, qui est le tritment). Il s'agit de déterminer s'il y a un effet sur le groupe de contrôle. Ensuite, compte tenu de cet effet, vous pouvez analyser et améliorer votre modèle ou certaines mesures.

... C'est vous qui essayez de comprendre comment appliquer quelque chose que vous ne savez pas appliquer.

Prenez un petit cours d' introduction gratuit.

J'ai lu deux articles de ces auteurs - ce sont eux qui m'ont donné les idées en conjonction avec la vidéo.

https://habr.com/ru/companies/ru_mts/articles/485980/

https://habr.com/ru/companies/ru_mts/articles/485976/ 

Je travaille sur une tâche similaire, c'est pourquoi j'ai ma propre vision des nuances. Mais oui, la nouvelle terminologie est déroutante.

Soustraire les probabilités des prédictions du modèle - eh bien, je ne pense pas que ce soit une bonne chose, surtout si vous savez comment ces probabilités sont distribuées dans CB.

Si vous faites l'expérience de bibliothèques spécialisées dans ces questions, partagez vos résultats et votre point de vue sur la situation.

Tant que l'idée principale de leur approche est respectée - l'essentiel est l'expérience et les connaissances de l'analyste sur le sujet de l'analyse :)

 
Aleksey Vyazmikin #:

J'ai lu deux articles de ces auteurs, qui ont servi de base aux idées présentées dans la vidéo.

https://habr.com/ru/companies/ru_mts/articles/485980/

https://habr.com/ru/companies/ru_mts/articles/485976/ 

Je travaille sur une tâche similaire et j'ai donc mon propre point de vue sur les nuances. Mais oui, la nouvelle terminologie est déroutante.

Soustraire les probabilités des prédictions du modèle - je ne pense pas que ce soit une bonne idée, surtout si l'on sait comment ces probabilités sont distribuées dans le CB.

Si vous faites l'expérience de bibliothèques spécialisées sur ces questions, partagez vos résultats et votre vision de la situation.

Tant que l'idée principale de leur approche est prise en compte - l'essentiel est l'expérience et les connaissances de l'analyste sur le sujet de l'analyse :)

Une boîte à outils est proposée, il faut la mettre en œuvre.

si vous pensez de manière trop abstraite, tout le monde travaille sur une "tâche similaire" (sauf qu'ils ne peuvent pas formuler laquelle).

 
Maxim Dmitrievsky #:

la boîte à outils est offerte, il faut la comprendre.

Si vous pensez de manière trop abstraite, tout le monde travaille sur une "tâche similaire" (sauf qu'ils ne peuvent pas formuler laquelle).

J'ai un fil de discussion séparé sur le forum pour résoudre le problème. L'objectif est simplement d'établir si un nouveau facteur influençant la distribution de probabilité du prédicteur (segment quantique) apparaîtra ou non.

Bien que je n'aie pas travaillé sur ce sujet depuis longtemps. Plus précisément, j'ai besoin de transférer des idées du papier au code.

Il m'est difficile de m'occuper d'une telle chose sans avoir des connaissances de base en python ou er. Je n'ai pas de temps libre et je suis rapidement fatigué. Les pilules m'ont un peu aidé, mais je les prends quand j'en ai envie....

Автоматический расчет описательных статистик выборки на MQL5 - Определите, похожи ли в целом средние значения событий?
Автоматический расчет описательных статистик выборки на MQL5 - Определите, похожи ли в целом средние значения событий?
  • 2023.03.24
  • www.mql5.com
Код использует два callback-объекта в обучении модели LearningRateScheduler - позволяет динамически изменять скорость обучения модели в зависимости от номера эпохи. За весь период наблюдения поворот направо был осуществлен в 65
 
Aleksey Vyazmikin #:

J'ai un fil de discussion séparé sur le forum concernant la résolution du problème. L'objectif est de déterminer si un nouveau facteur influençant la distribution de probabilité du prédicteur (segment quantique) apparaîtra ou non.

Bien que je n'aie pas travaillé sur ce sujet depuis longtemps. Plus précisément, j'ai besoin de transférer des idées du papier au code.

Il m'est difficile de m'occuper d'une telle chose sans avoir des connaissances de base en python ou er. Je n'ai pas du tout de temps libre et je me fatigue rapidement. Les pilules m'ont un peu aidé, mais je les prends quand j'en ai envie....

Je dois me fixer des tâches que je peux accomplir. Il n'y a aucun moyen de lire ce qui est écrit. La fréquence a une ligne de temps... trop flagrante. Puis mon doigt a pointé la croix par réflexe ❌.
 
Maxim Dmitrievsky #:
Il faut se fixer ses propres objectifs. Il n'y a aucun moyen de lire ce qui est écrit. La fréquence a une échelle de temps... trop flagrant. Puis mon doigt a réflexivement pointé la croix ❌.

Oui, c'est l'échelle de temps que j'ai prise, c'est le seul moyen de standardiser les mesures indépendantes dans cet échantillon, et la valeur d'application n'est pas perdue.

Je reconnais que le problème est difficile et que je ne trouverai peut-être pas la solution. Cependant, je constate que c'est la principale raison pour laquelle les modèles cessent de fonctionner - la distribution des changements de probabilité dans la plage de prédicteurs change beaucoup avec le temps. Et là, nous pouvons soit chercher la raison pour laquelle cela se produit - pour détecter le moment de l'apparition d'un nouveau facteur, soit rechercher les conditions préalables à la variabilité dans l'histoire de la "vie" - une sorte de tâche de survie.

Si nous examinons votre approche à la lumière de ces connaissances, vous recherchez indirectement des zones de la période de formation où les distributions sont stables pour les prédicteurs qui sont significatifs à ce moment-là, en éliminant d'autres zones dont la distribution est différente selon certains critères. Toutefois, le fait que ces zones de l'échantillon soient différentes pour différents prédicteurs entraîne la suppression d'une très grande période d'échantillonnage. Essayez de réduire le nombre de prédicteurs à chaque itération - cela réduira le conflit de biais de probabilité entre les prédicteurs et peut donc augmenter le rappel.

 
La fréquence n'a pas de calendrier. Je travaille simplement avec des erreurs de modèle :) cette approche a été exprimée il y a longtemps, je ne connaissais pas la technique de l'élévation. Il s'est avéré que nous avons fait à peu près la même chose. Quel est l'intérêt d'examiner ces distributions ? Visualisation de ce qui est déjà clair.
 
Maxim Dmitrievsky #:
La fréquence n'a pas de calendrier. Je travaille simplement avec des erreurs de modèle :) cette approche a été exprimée il y a longtemps, je ne connaissais pas la technique de l'élévation. Il s'est avéré que nous avons fait à peu près la même chose. Quel est l'intérêt de regarder ces distributions ? Visualisation de quelque chose qui est déjà clair.

Je me trompe peut-être sur le terme, mais comment appelle-t-on autrement la fréquence d'un événement à un moment donné dans le temps ?

Je ne parle pas de visualisation... je parle de la manière de traiter ce problème plus efficacement.

 
Aleksey Vyazmikin #:

Peut-être que je me trompe de terme, mais comment appelle-t-on autrement la fréquence d'un événement au cours d'un laps de temps donné ?

Je ne parle pas de visualisation... je parle de la manière de travailler plus efficacement avec ce problème.

Tout est dans le fil de discussion, vous pouvez chercher le reste sur Google. J'ai ajouté un livre sur la causalité.

Exactement, à cause d'un grand nombre de termes qui ne font pas partie du sujet, la signification de ce qui se passe est perdue. Bien que la tâche elle-même puisse être très simple.
 

Je ne sais pas ce qui vous a attiré vers ce sujet. Pour les utilisateurs de R, voici un certain nombre de paquets sur ce sujet. Ils peuvent aider à comprendre ou à utiliser. R 4.2.3/4.3.0

other attached packages:
 [1] regmedint_1.0.0               PSweight_1.1.8                MatchIt_4.5.3                
 [4] InvariantCausalPrediction_0.8 mboost_2.9-7                  stabs_0.6-4                  
 [7] glmnet_4.1-7                  Matrix_1.5-4                  grangers_0.1.0               
[10] dagitty_0.3-1                 CompareCausalNetworks_0.2.6.2 CERFIT_0.1.0                 
[13] causalweight_1.0.4            ranger_0.15.1                 causalsens_0.1.2             
[16] CausalQueries_0.1.0           Rcpp_1.0.10                   dplyr_1.1.2                  
[19] causalPAF_1.2.5               causaloptim_0.9.7             igraph_1.4.2                 
[22] CausalMBSTS_0.1.1             KFAS_1.5.0                    CausalKinetiX_0.2.1          
[25] CausalImpact_1.3.0            bsts_0.9.9                    xts_0.13.1                   
[28] zoo_1.8-12                    BoomSpikeSlab_1.2.5           Boom_0.9.11                  
[31] CausalGAM_0.1-4               gam_1.22-2                    foreach_1.5.2                
[34] causaleffect_1.3.15           causaldrf_0.4.2               causaldata_0.1.3             
[37] causalCmprsk_1.1.0            causal.decomp_0.1.0       

Je n'ai fait qu'appliquer "sr" jusqu'à présent.

Bonne chance


Raison: