Résonance stochastique - page 30

 
Neutron:
Yurixx:

...J'ai une question intéressante en cours de route. Quelqu'un peut-il m'éclairer sur la raison pour laquelle une fonction de distribution aussi simple et pratique, dotée de bonnes propriétés, n'est pas utilisée en statistique ? Et si elle est utilisée, pourquoi ne fait-elle pas l'objet d'un article ? Je n'ai jamais vu personne essayer d'approximer une distribution incrémentale autre que la lognormale.

Yura, je ne connais pas la réponse à cette question.

Je ne peux que supposer que la distribution que vous proposez p(X)=A*(X^a)*exp(-B*(X^b)), est un cas particulier (par exemple la distribution exponentielle généralisée p(X)=a/(2G[1/a]*l*s)exp{-[(x-m)/l*sl*s]^a}, Bulashev, p.41), ou ceux, peu nombreux, qui ont également réussi à aller au fond des choses, ont décidé de se taire et de faucher tranquillement les choux sur la vaste Forpolye :)


C'est ce que je pensais aussi, et ça le serait, si la distribution généralisée avait un exposant. Puisque cela n'existe pas, la distribution généralisée a une valeur non nulle à zéro et s'étend à la région x<0. L'exposant rend la pente gauche très raide (dans la généralisée avec a<1, les deux pentes sont douces), et la pente droite est encore plus plate que dans la généralisée. Je n'hésiterai pas à utiliser le mot "queue épaisse". :-) Et, surtout, il ne s'intègre pas explicitement.

Mais j'ai une contre-question !

Il y a quelque temps, j'étudiais les modèles autorégressifs d'ordre arbitraire (lorsque l'on recherche la dépendance de l'amplitude de la barre actuelle et de son signe sur la somme des actions sur celle-ci d'un nombre arbitraire de barres précédentes). J'ai résolu ce problème si bien que je ne pouvais pas dire si la série du modèle était réelle ou non par son apparence, sauf pour une exception - la fonction de distribution (DP) de la série du modèle était loin de la réalité. Je n'ai pas pu trouver la raison de cette divergence. Intuitivement, j'ai pensé que la coïncidence des fonctions d'autocorrélation était suffisante pour faire correspondre la PDF de leurs premières différences. Il s'avère que ce n'était pas... Il y a quelque chose que je ne prends pas en compte dans la modélisation du comportement des séries résiduelles.

Que pensez-vous de cette question ?

Comme je ne connais ni les méthodes que vous avez utilisées pour résoudre ce problème, ni la méthode de modélisation des résidus, et que ma main gauche et mes deux pieds sont boiteux en statistiques mathématiques, je ne peux, hélas, rien dire. Pour au moins commencer à y réfléchir, ce petit paragraphe seul ne me suffit pas personnellement, j'ai besoin de plus d'informations pour y réfléchir, comme Stirlitz.

 
Yurixx:
lna01:
Yurixx:

Il ne s'agit pas de calculer Ymin et Ymax en soi. Il s'agit de recalculer à partir de l'ensemble original des données de l'ensemble dérivé. En outre, votre méthode de recalcul de la normalisation est arbitraire, liée à l'ensemble historique sur lequel vous la faites. Lorsque vous passez en t/f, il peut passer de 2000 bars à, disons, 500000 bars. Atteindre la limite de la plage dans le premier cas ne dit rien, mais dans le second cas, cela dit beaucoup. Vous ne pouvez accuser ma méthode d'être arbitraire qu'en ayant à l'esprit une fonction de distribution modèle. Cependant, si la distribution réelle, construite expérimentalement sur la base de la quantité "maximale disponible" de données, est bien approchée par la distribution modèle, alors où est l'arbitraire ?

Je n'aime pas argumenter sur des questions théoriques, il est très rare de pouvoir trancher :). Et dans ce cas, on n'a pas essayé de faire une estimation universelle. J'ai simplement essayé de comprendre et de comparer le volume réel des calculs. Il me semble que pour votre approche ici il est nécessaire d'inclure le calcul des caractéristiques d'une série initiale que dans mon approche il n'est pas requis. Le deuxième point - on ne sait pas très bien ce que vous allez calculer pour Y, plus complexe qu'une simple moyenne. La nécessité de traiter les séries initiales ne rend-elle pas votre méthode aussi sensible à l'horizon temporel que la mienne ? Je comprends, ce sont les spécificités de la série originale. Mais j'ai un atout similaire - l'invariant trouvé, le même pour tous les symboles testés (majors) et pour toutes les échéances.
Je n'ai pas eu à me plaindre de l'arbitraire, pour la phénoménologie la seule contrainte est la précision de l'approximation, et je préfère appeler l'arbitraire non pas arbitraire, mais degré de liberté :)
 
Mathemat:

Je vais m'interposer, Neutron. Je ne suis pas statisticien, j'ai donc dû poser la question sur mexmat.ru. Il est ici : http://lib.mexmat.ru/forum/viewtopic.php?t=9102

Question : quelles informations sur le processus stationnaire suffisent pour le reproduire correctement ? La réponse était : il faut connaître la fonction de covariance et le m.o. du processus. Je ne sais pas encore comment construire un processus avec une fonction de covariance donnée. Mais l'idée est que le processus résultant puisse être considéré comme une mise en œuvre correcte du processus simulé original. Peut-être que votre processus n'était pas stationnaire ?

P.S. Je veux une simulation plausible du processus des résidus (retours). Selon Peters, la distribution des résidus est fractale avec une précision acceptable, et le processus est stationnaire. Bien que d'autres modèles ne soient pas exclus...

Salut Mathemat !

Je suis un dilettante de la statistique (laissons l'affirmation contraire à la conscience du Jura) et je ne connais tout simplement pas la réponse à la plupart des questions :(

Une série est dite strictement stationnaire (ou stationnaire au sens strict) si son FR, sa moyenne et sa variance ne dépendent pas du temps.

Une série est dite faiblement stationnaire (ou stationnaire au sens large) si sa moyenne et sa variance ne dépendent pas du temps.

En effet, notre série de premières différences n'est pas stationnaire même au sens large du terme - l'amplitude varie sensiblement, pensez-vous que cela puisse être la cause de l'effet observé ?

P.S. Je me demande ce que Peters entend par la stationnarité de ce processus ?

 
lna01:
Je n'aime pas débattre de questions théoriques, je ne parviens que rarement à me décider :). Dans ce cas, il n'y a pas eu de tentative d'évaluation universelle. J'ai simplement essayé de comprendre et de comparer le volume réel des calculs "pour moi-même". Il me semble que pour votre approche ici il est nécessaire d'inclure le calcul des caractéristiques d'une série initiale que dans mon approche il n'est pas requis. Le deuxième point - on ne sait pas très bien ce que vous allez calculer pour Y, plus complexe qu'une simple moyenne. La nécessité de traiter les séries initiales ne rend-elle pas votre méthode aussi sensible à l'horizon temporel que la mienne ? Je comprends, ce sont les spécificités de la série originale. Mais j'ai un atout similaire - l'invariant trouvé, le même pour tous les symboles testés (majors) et pour toutes les échéances.
Je n'ai pas eu à me plaindre de l'arbitraire, pour la phénoménologie la seule contrainte est la précision de l'approximation, et je préfère appeler l'arbitraire non pas arbitraire, mais degré de liberté :)

Je ne discute pas. Je fais juste une excuse. :-)

Les calculs pour les méthodes de calcul de la moyenne non triviales sont une forêt sombre. Je n'y vais pas, j'en ai peur. J'ai résolu mon problème, et c'est bien.

 
Neutron:

P.S. Je me demande ce que Peters entend par la stationnarité du processus.


Peut-être que la pente de ce processus n'a pas de limite de convergence ? :-)))
 
Je ne sais pas, honnêtement. Ça fait longtemps que je ne l'ai pas lu, alors peut-être que j'ai inventé quelque chose pour rendre ce vilain Foreh plus joli. ... OK, je jetterai un coup d'oeil l'autre jour, pour voir ce qu'il y a vraiment. L'image qu'on y voit est vraiment désagréable, c'est sûr... Et c'est encore plus méchant avec la dispersion.
 

Au fait, Neutron, pourriez-vous m'expliquer un détail. Qu'est-ce qui est mauvais dans le MO<SCO, et qu'est-ce qui est bon dans l'autre sens ? Cette question s'est posée une fois, et le FR que j'ai utilisé a cette mauvaise propriété.

Mathemat, peut-être que tu le sais aussi, alors explique-le à une personne analphabète.

 
La question de Vinin est apparue ici : "Distribution bêta". Il s'agit d'une tâche spécifique, tout dépend des objectifs de l'auteur du fil. Et en général, il n'y a rien de mal à ce que MO<SCO. La situation est la même : sur les marchés quotidiens, MO est de quelques points, même sur la tendance de 2001 à l'Euro, et RMS est au moins de dizaines de points. Sur la même tendance de l'Euro, le retour des taux horaires donne un MO d'environ 0,2 points, alors que le RMS est d'au moins quelques points.
 
Mathemat:
La question de Vinin est apparue ici : " Distribution bêta ". Il s'agit d'une tâche spécifique, tout dépend des objectifs de l'auteur de la branche. En général, il n'y a rien de mal avec MO<SCO. La situation est la même : sur les marchés quotidiens, MO est de quelques points, même sur la tendance de 2001 à l'Euro, et RMS est au moins de dizaines de points. Sur la même tendance hébraïque, le MoD est d'environ 0,2 point, et le RMS de quelques points minimum.

S'il s'agit de la même tendance, ce n'est pas bon. La principale caractéristique d'une transaction est le rapport bénéfice/risque. Le risque est déterminé par la volatilité, le TRI systématique. Il existe même des indicateurs de ce type - Sharpe (Profit pour la période/SCO), Sortino - la même chose mais en tenant compte de la "volatilité descendante". Si le RMS est supérieur au MO, alors la perte liée à cette volatilité est susceptible de dépasser le rendement potentiel associé à un MO positif.
 
Avals писал (а): Si c'est à l'arrière, c'est pas bon.
Eh bien, il est clair que Foreh n'est pas nourri au miel. Qui peut me dire comment calculer la fonction actocovariance (ou autocorrélation) dans Excel...