Matstat Econométrie Matan

 
Bienvenue à tous les gourous de la statistique mathématique, de l'économétrie et de l'analyse mathématique.
Un fil de discussion pour un dialogue constructif, sur divers sujets des domaines scientifiques susmentionnés.
Une communication adéquate est la bienvenue !
 

Forum sur le trading, les systèmes de trading automatisés et les tests de stratégies de trading

De la théorie à la pratique. Partie 2

Aleksey Nikolayev, 2021.05.05 22:38

En gros, le mélange affaiblit la dépendance mais ne la supprime pas complètement.
En fait, la dépendance probabiliste est la partie la plus importante du théorème en termes d'applications pratiques.
Quand j'ai regardé un cours de théoricien sur youtube au MIT pour les ingénieurs, tout y était.


Voulez-vous dire le coefficient de détermination r2 ?
Ou autre chose par dépendance de probabilité ?

Je prends en compte r2 en temps réel, pour estimer la "force d'influence" de la variable x sur y
de façon surprenante sur certaines séries de devises, il se maintient assez régulièrement à des valeurs élevées

r2

 
La probabilité n'est-elle pas tout simplement insuffisante ? Si c'est la théorie de la probabilité...
 
Dmitry Fedoseev:
La simple probabilité ne suffit-elle pas ? Si c'est une théorie de probabilité...

Je voulais préciser quel critère d'évaluation était visé dans ce contexte.
Si la corrélation est conventionnelle, alors avec r2 ils ont une différence de calcul, et donc des estimations différentes.
En statistiques, on recommande généralement d'utiliser le r2 comme étant plus fiable.

r

et littéralement dix minutes plus tard

rr

 
Roman:

Voulez-vous dire le coefficient de détermination r2 ?
Ou bien voulez-vous dire autre chose par dépendance de probabilité ?

La dépendance des probabilités (stochastique) est l'un des concepts les plus importants pour les théoriciens et les mathématiciens. Le concept est d'abord défini (via la probabilité conditionnelle) pour les événements aléatoires, puis transféré aux variables aléatoires, sous la forme d'une distribution conditionnelle. La dépendance est la non-conformité de la distribution conditionnelle avec la distribution inconditionnelle, tandis que l'indépendance est leur coïncidence. Une explication populaire de la dépendance est - Connaître la valeur d'un c.c. apporte des informations sur la valeur de l'autre c.c. La dépendance se situe entre ses deux états extrêmes - indépendance et connexion fonctionnelle rigide.

En général, nous commençons toujours par une distribution conjointe de variables aléatoires, sur la base de laquelle sont construites toutes sortes de métriques de dépendance spécifiques. Il peut s'agir de copules, d'entropie mutuelle, de corrélation, etc.

La corrélation, R2, etc. ne sont raisonnablement applicables que lorsque la distribution conjointe est normale à plusieurs variables. En pratique, ils sont également appliqués (en raison de leur simplicité) lorsque la normalité n'est pas certaine, mais leur utilité n'est alors déterminée que par l'expérience.

 
Aleksey Nikolayev:

La probabilité (stochasticité) est l'un des concepts les plus importants de la théorisation et des mathématiques. Le concept est d'abord défini (par le biais de la probabilité conditionnelle) pour les événements aléatoires, puis transféré aux variables aléatoires, sous la forme d'une distribution conditionnelle. La dépendance est la non-conformité de la distribution conditionnelle avec la distribution inconditionnelle, tandis que l'indépendance est leur coïncidence. Une explication populaire de la dépendance est - Connaître la valeur d'un c.c. apporte des informations sur la valeur de l'autre c.c. La dépendance se situe entre ses deux états extrêmes - indépendance et connexion fonctionnelle rigide.

En général, nous commençons toujours par une distribution conjointe de variables aléatoires, sur la base de laquelle sont construites toutes sortes de métriques de dépendance spécifiques. Il peut s'agir de copules, d'entropie mutuelle, de corrélation, etc.

La corrélation, R2, etc. ne sont raisonnablement applicables que lorsque la distribution conjointe est normale à plusieurs variables. Dans la pratique, ils sont également appliqués (en raison de leur simplicité) lorsqu'il n'y a pas de certitude de normalité, mais leur utilité est alors uniquement déterminée par l'expérience.

Ah c'est une distribution délicate, je l'oublie toujours ;))
Donc tous les modèles statistiques nécessitent ce critère ?
Et comme il n'y a pas de normalité sur les séries de prix, commence alors la torture de la préparation des données,
afin de les rapprocher d'une manière ou d'une autre d'une distribution normale, sans perdre les propriétés originales.

De là découle le problème de la préparation de ces données.
La normalisation, le cusum, la dérivation, etc. tels que je les conçois ne conduisent pas à des résultats de qualité.
Alors ils commencent à s'amincir ou quelque chose comme ça. Quelles méthodes existe-t-il en général ?

J'en arrive donc à la conclusion que la préparation de données qualitatives pour les modèles statistiques est un vaste sujet d'étude.
J'ai cherché des tutoriels sur ce sujet, mais je n'ai rien trouvé, bigdata, MO, neuronka sont partout, mais comment préparer des données qualitatives pour eux, pour une raison quelconque n'est pas divulgué.

 

Je n'arrive pas à comprendre l'anomalie suivante, pourquoi cela se produit.
J'ai calculé un modèle orthogonal, qui est censé être meilleur que le MNC.
J'ai obtenu les coefficients de départ.
Ensuite, les paramètres du modèle (coefficients) sont ajustés par l'algorithme médian, c'est-à-dire une sorte de robustesse contre les valeurs aberrantes.
Le modèle décrit qualitativement la série initiale.

En bleu - série originale.
Le gris est le modèle.

p1

Mais sur l'une des sections de l'historique, j'observe une divergence qui converge ensuite vers l'exacte comme dans la capture d'écran ci-dessus

p2


Je ne peux pas voir la vérité, pourquoi cela arrive-t-il ? Et qu'est-ce qui y contribue ?
Les coefficients sont recalculés à chaque étape et doivent s'ajuster à (x) sur (y)
S'agit-il d'une erreur d'ajustement ? Je comprends qu'il puisse y avoir une erreur dans une ou deux, voire trois étapes de calcul,
mais il semble étrange que l'erreur dure aussi longtemps. Peut-être que ce n'est pas une erreur de montage ? Est-ce que c'est autre chose ?

 
Roman:

Je n'arrive pas à comprendre l'anomalie suivante, pourquoi cela se produit.
J'ai calculé un modèle orthogonal, qui est censé être meilleur que le MNC.
J'ai obtenu les coefficients de départ.
Ensuite, les paramètres du modèle (coefficients) sont ajustés par l'algorithme médian, c'est-à-dire une sorte de robustesse contre les valeurs aberrantes.
Le modèle décrit qualitativement la série initiale.

En bleu - série originale.
Le gris est le modèle.



Mais sur l'une des sections de l'historique, j'observe une divergence qui converge ensuite vers l'exacte comme dans la capture d'écran ci-dessus


Je ne peux pas voir la vérité, pourquoi cela arrive-t-il ? Et qu'est-ce qui y contribue ?
Les coefficients sont recalculés à chaque étape et doivent s'ajuster à (x) sur (y)
S'agit-il d'une erreur d'ajustement ? Je comprends qu'il puisse y avoir une erreur dans une ou deux, voire trois étapes de calcul,
mais il semble étrange que l'erreur dure aussi longtemps. Peut-être que ce n'est pas une erreur de montage ? Est-ce que c'est autre chose ?

Je ne peux que vous conseiller de trouver un logiciel statistique qui implémente votre modèle (ou un modèle similaire) et de voir comment il se comporte avec vos données. Cela peut vous aider à comprendre si le problème est dû à un modèle défectueux ou à une erreur de mise en œuvre.

 
Roman:

Comme il n'y a pas de normalité dans les séries de prix, la tâche tortueuse de la préparation des données,
, consiste à se rapprocher d'une distribution normale sans perdre les propriétés originales.

Les incréments logarithmiques ne fonctionneraient pas ?
 
Aleksey Nikolayev:

Tout ce que je peux vous suggérer, c'est de trouver un logiciel statistique qui implémente votre modèle (ou un modèle similaire) et de voir comment il se comporte avec vos données. Cela peut aider à comprendre si le problème est dû à un modèle défectueux ou à une erreur de mise en œuvre.

Merci pour l'idée, je ne l'avais pas réalisé.

 
secret:
Logarithmer les incréments ne va pas marcher ?

Oui, c'est en gros ce que je fais comme option plus ou moins bonne.
Sur un autre modèle similaire, j'observe aussi parfois de petites divergences, comme la divergence.
Mais pas aussi prolongée que sur la capture d'écran ci-dessus, mais assez brève. Je me suis demandé pourquoi ça se passe comme ça.
J'ai essayé ce modèle et j'ai vu une divergence encore plus prolongée.

Je ne comprends donc pas d'où vient cette divergence. Modèle incorrect ou données sources de mauvaise qualité.
Je ne comprends pas la logique des actions.
Soit je dois ajuster les données initiales approximativement à la normale,
, soit je dois pelleter des modèles différents.
Mais essayez d'abord d'écrire ce modèle, ce n'est pas si facile de le vérifier et de le jeter ;))

Raison: