FR H-Volatilité - page 21

 
Neutron:
Privé 10.12.2007 16:54

Sergei, il existe un processus sur lequel, en principe, on ne peut pas gagner de l'argent à long terme. Je parle du processus vénusien obtenu en intégrant un SV normalement distribué avec un MO nul. Donc, quel que soit le TS que vous inventez, dans ce cas, il est voué à l'échec. Même en théorie, un tel TS ne peut être créé ! Appelons un tel RV EFFECTIF. Comme vous le voyez, l'efficacité est une propriété de cette BP, et non d'une TS particulière. Je pense que l'analogie faite est transparente et intuitivement claire ?


Merci, il y a enfin un poêle pour danser. Je supprime juste les mots "en principe, vous ne pouvez pas" d'ici. Commençons à décortiquer le processus :-). 1 Un processus de Wiener est un processus à incréments indépendants. Cette courbe a-t-elle toujours cette propriété ? Je ne pense pas, et vous conviendrez qu'il y a des zones où les incréments sont dépendants - la tâche est de détecter ce fait aussi rapidement que possible et de négocier dans la direction des incréments dans le temps de corrélation. La deuxième façon est "tout processus avec des incréments indépendants est markovien, allez-y.". Nous avons besoin de déterminer la matrice de probabilité de transition, puisque l'ensemble des valeurs de prix est discret et dénombrable, il est théoriquement possible de
 
grasn:

à Prival

Les notions introduites ne font qu'embrouiller et ne vous donnent pas d'outil pour étudier le "comportement" de la courbe (pour y trouver des régularités), mais conduisent à des réflexions telles que la citation "Et quel est l'état stationnaire du système avec une pièce de monnaie ? (Addendum : pendant que j'étais distrait, kamal respecté a déjà posé la question) Et pendant que je reste sur mes positions - le désir du système d'occuper un état stable ne donne aucun avantage pour la prédiction et je peux trouver un tas de pseudo-arguments".

Comme il s'agit de mon affirmation, je vais en rajouter un peu. Ma conclusion ne repose que sur le bon sens, et non sur les concepts de "martingale" et d'"efficacité". D'ailleurs - je ne sais même pas ce que ces concepts signifient et de plus - je ne veux pas le savoir. Mais cette ignorance ne me dérange pas du tout, juste une approche différente, un regard différent... :о)


Je n'utilise pas non plus ces termes dans mes recherches, car je ne les comprends pas. Et je considère que les mathématiques sont appliquées, il faut juste comprendre ce que sont les mathématiques et où les appliquer :-).

Concernant le fait que "le désir d'un système d'occuper un état stationnaire ne donne aucun avantage pour la prévision", j'ai bien compris et je vous ai montré en images que vous pouvez utiliser cette propriété à bon escient ou non, je n'ai pas réussi à vous convaincre. Si vous n'expliquez pas cette idée plus en détail, j'essaie toujours de rester dans les limites du bon sens aussi.

 
Yurixx:

Il y a donc unanimité totale sur la première question. :-)) Super.

2. Je comprends, en termes généraux, ce dont vous parlez, mais je comprends aussi que cela dépasse mes capacités mathématiques et peut-être même ma compréhension plus spécifique. :-(

3. Oui, cette vision du CT est en effet triviale, il n'est pas nécessaire de connaître le FR pour le faire, il suffit d'avoir le mo. Je l'ai compris dès le début. La question peut donc être formulée autrement : la connaissance explicite de FR donne-t-elle un avantage par rapport au cas élémentaire de la connaissance de mo, sko ? Et, si oui, peut-il être utilisé d'une manière ou d'une autre.

Exemple. SP a une asymétrie (par opposition à Gaussien, qui est symétrique), bien que toujours mo=0. Peut-on extraire quelque chose de la forme de la courbe ou est-ce inutile ?

Mais ceci est intéressant : "les mathématiques dans la gestion de l'argent sont beaucoup plus adéquates du point de vue du fait qu'il existe des algorithmes d'action corrects et clairs". Pouvons-nous discuter de ces algorithmes plus en détail ? En d'autres termes, de quoi s'agit-il et où peut-on le trouver sous une forme accessible ?

4. Ce n'est pas une comparaison qualitative qui m'intéresse, mais une comparaison quantitative. Ce n'est pas une condition logique du CT. :-) Pour être précis, je veux normaliser l'écart sur un échantillon afin qu'il ne dépende pas de la taille de cet échantillon.

Je comprends l'algorithme de calcul, mais expliquez-moi, s'il vous plaît,

(a) Par "chaque variable aléatoire", on entend que chaque échantillon d'une série SV est une variable distincte qui a sa propre distribution ? Cela suppose que toutes ces variables ont la même distribution F(x) ? Si non, que signifie "chaque variable aléatoire" ?

b) Que représente G(x) ? Pourquoi devons-nous augmenter F(x) à la puissance de n et qu'est-ce que cela a à voir avec le maximum de l'échantillon ? Désolé, en tant que physicien, je dois comprendre ce que je fais.

3. Dans le cas d'incréments indépendants - non, ce n'est pas le cas, car dans le cas d'incréments indépendants et de mo=0, rien ne peut donner un avantage - le marché est efficient (selon le critère de martingale que j'ai donné ci-dessus). Sinon, il n'y a rien de mieux que la règle "acheter et conserver". Tout cela, je le souligne, pour des augmentations indépendantes.
Les mathématiques de la gestion de l'argent, et plus précisément de la gestion du risque, ont été décrites dans de nombreux ouvrages et de nombreux résultats ont été obtenus. Certains résultats sont connus de tous (le ratio de Sharp/Sortino ou V@R), d'autres sont davantage liés aux connaissances communes en matière de trading (comme la règle de Kelly), d'autres encore sont hors de portée d'une utilisation pratique dans un avenir prévisible (les mesures cohérentes et convexes du risque). Tous ces résultats sont constructifs, chacun disant "faites ceci et cela pour limiter le risque à ceci et cela". En termes pratiques, il existe un livre de Vince, je crois, intitulé "The Mathematics of Capital Management" ou quelque chose comme ça. Si je ne me trompe pas - il s'agit de la gestion de l'argent. Je ne l'ai pas lu moi-même, je l'ai seulement parcouru d'un coup d'œil, mais il semble être dépourvu d'absurdités et de chamanisme.
4. au fait, je viens de comprendre que vous souhaitez probablement rechercher non pas un échantillon, mais la mise en œuvre d'un processus avec desincréments indépendants. Il s'agit d'une boucle légèrement différente (plus compliquée). Je vais répondre comme je voulais répondre, exactement pour l'échantillonnage, si vous avez besoin d'autre chose vous pouvez me demander à nouveau.
a) Cette version suppose que les valeurs de la série sont des variables aléatoires indépendantes équidistantes (avec une fonction de distribution F). Eagle-Rash (1-0) est là, ou peu importe. Les valeurs elles-mêmes, pas leurs sommes.
b) G(x) est en fait une fonction de distribution des maxima. La preuve est simple : la probabilité que le maximum soit inférieur à x est égale à la probabilité que chaque s.v. soit inférieur à la combinaison (taptologie) et ceci est égal au produit des probabilités d'événements comme "een valeur est inférieure à x". Puisque les probabilités de tous ces événements sont égales, et égales à F(x), nous obtenons que G(x) = F^n(x).
 
Prival:
1 Un processus de Wiener est un processus à incréments indépendants. Cette courbe a-t-elle toujours cette propriété ? Je ne pense pas, et vous conviendrez qu'il y a des zones où les incréments sont dépendants - la tâche est de détecter ce fait aussi rapidement que possible et de négocier dans la direction des incréments dans le temps de corrélation. La deuxième façon est "tout processus avec des incréments indépendants est markovien, allez-y.". Nous avons besoin de déterminer la matrice de probabilité de transition, puisque l'ensemble des valeurs de prix est discret et dénombrable, il est théoriquement possible de

Pas d'accord ! Par convention - les incréments sont INDEPENDANTS. Toute dépendance locale est aléatoire (stochastique), elle se terminera donc de manière aussi inattendue qu'elle a commencé et cette propriété ne peut donc pas être exploitée. Je ne comprends pas la deuxième variante. En général, la tentative de construire un TS rentable en utilisant un processus aléatoire (tel que défini ci-dessus) est un non-sens ! Sergey, j'ai souligné que "c'est impossible à long terme" et je n'exclus pas les variantes locales gagnantes. Ça ne contredit rien. Ce qui est important, c'est qu'en moyenne, sur un GROS historique, le rendement du TC (le rapport entre le profit total et le nombre de transactions effectuées n) tend vers zéro comme 1/SQRT(n).
 

à kamal

Sur la base de votre expérience pratique du marché boursier, est-il actuellement possible d'utiliser une stratégie autre que "acheter (vendre) et conserver" ?

 
kamal:
3. Dans le cas d'incréments indépendants - non, ce n'est pas le cas, car dans le cas d'incréments indépendants et de mo=0 l'avantage ne peut rien donner - le marché est efficient (selon le critère de martingale que j'ai donné plus haut). Sinon, il n'y a rien de mieux que la règle du "buy and hold". Tout cela, je le souligne, pour des augmentations indépendantes.
Les mathématiques de la gestion de l'argent, et plus précisément de la gestion du risque, ont été décrites dans de nombreux ouvrages et de nombreux résultats ont été obtenus. Certains résultats sont connus de tous (le ratio de Sharp/Sortino ou V@R), d'autres sont davantage liés aux connaissances communes en matière de trading (comme la règle de Kelly), d'autres encore sont hors de portée d'une utilisation pratique dans un avenir prévisible (les mesures cohérentes et convexes du risque). Tous ces résultats sont constructifs, chacun disant "faites ceci et cela pour limiter le risque à ceci et cela". En termes pratiques, il existe un livre de Vince, je crois, intitulé "The Mathematics of Capital Management" ou quelque chose comme ça. Si je ne me trompe pas - il s'agit de la gestion de l'argent. Je ne l'ai pas lu moi-même, je l'ai seulement parcouru d'un coup d'œil, mais il semble être dépourvu d'absurdités et de chamanisme.
4. au fait, je viens de comprendre que vous souhaitez probablement rechercher non pas un échantillon, mais la mise en œuvre d'un processus avec desincréments indépendants. Il s'agit d'une boucle légèrement différente (plus compliquée). Je vais répondre comme je voulais répondre, exactement pour l'échantillonnage, si vous avez besoin d'autre chose vous pouvez me demander à nouveau.
a) Cette version suppose que les valeurs de la série sont des variables aléatoires indépendantes équidistantes (avec une fonction de distribution F). Eagle-Rash (1-0) est là, ou peu importe. Les valeurs elles-mêmes, pas leurs sommes.
b) G(x) est en fait une fonction de distribution des maxima. La preuve est simple : la probabilité que le maximum soit inférieur à x est égale à la probabilité que chaque s.v. soit inférieur à la combinaison (taptologie) et ceci est égal au produit des probabilités d'événements comme "een valeur est inférieure à x". Puisque les probabilités de tous ces événements sont égales, et égales à F(x), nous obtenons que G(x) = F^n(x).

Eh bien, la deuxième question a été traitée également, merci. Un grand merci pour Vince, je m'assurerai de le trouver. Une dernière question demeure.

a) Si je comprends bien, par SP vous entendez tout ensemble infini de réalisations de séries de SP, dont chacune est un cas particulier de séries infinies de ce SP. Dans ce cas, il est possible de parler d'une fonction de distribution pour un seul élément. Corrigez-moi si je me trompe.

Et par "PS", j'entendais cette série (peut-être infinie) dont j'ai une partie finie sur mon ordinateur sous la forme d'un fragment de l'histoire des citations. Et j'ai appelé un échantillon une partie de cette histoire, que j'utilise directement dans mes calculs. Cela change-t-il la question ? Si oui, qu'est-ce que cela change ? Et qu'est-ce donc qu'un échantillon ?

b) Sur le maximum et le degré, je comprends, merci. C'est un point de vue différent, plus intéressant. J'ai basé mes calculs sur d'autres hypothèses. D'après ce que je comprends, le résultat est une distribution pour le maximum. Et c'est exactement FR, pas SP. Et plus loin, c'est clair.

Si vous n'êtes pas encore lassé par cette alphabétisation, je voudrais poser une autre question. Plusieurs fois, vous avez souligné l'indépendance des incréments comme une limitation importante qui sépare trop la théorie de la pratique. Vous avez également mentionné que la théorie a pu aller un peu plus loin. Pourriez-vous s'il vous plaît développer cette théorie, au moins suffisamment pour donner une première idée de ces étapes, et aussi pour comprendre comment une personne qui n'est pas trop éloignée des mathématiques (comme moi :-), mais pas un expert dans ce domaine, peut obtenir quelque chose d'utile pour lui-même ici.

 
Prival писал (а):
Avec cette phrase, je voulais vous amener à l'idée qu'il est plus probable de parier sur le fait que le leader de l'essai tombe dans la zone 2, que dans la zone 3 (4 têtes d'affilée), vous pouvez aussi parier dans la zone 1 (4 queues), voir figure.

C'est complètement faux.

Il s'agit d'une démonstration claire d'une erreur typique commise par les joueurs de loto sportif, de roulette, etc. Ils croient honnêtement qu'ils doivent placer leurs jetons sur le terrain de jeu de manière plus ou moins égale (ou vous pouvez imaginer votre propre système), mais une certaine combinaison spécifique, de leur point de vue, (par exemple tous les rouges) leur semble improbable. Et ils ne mettront jamais leurs 17 jetons sur le tout rouge (ou le tout noir).

Votre exemple avec la photo peut aussi être facilement trompeur. Le raisonnement est le suivant : si vous obtenez 357 aigles d'affilée (ouf !), puis pariez sur pile, vous ne pouvez pas vous tromper. C'est faux.

Je suggère aux utilisateurs sceptiques de considérer les variantes (on suppose que la pièce est de forme correcte, qu'il n'y a pas de vent, que la pièce n'est pas magnétique et que l'expérience est absolument claire du point de vue technique) :
1. Il n'y a pas eu de retournement. Quelle est la probabilité que ce soit pile ou face au prochain tirage ? La réponse correcte est 50%.
2. Il y a eu 100 lancers. Il y a eu 95 fois où des têtes sont tombées. Quelle est la probabilité des queues ? La réponse correcte est 50%.
3. Il y a eu 100 lancers. L'histoire du lancer de queue d'aigle est inconnue (en fait, le secrétaire aux longues jambes y a enveloppé un hareng). Quelle est la probabilité des queues ? La bonne réponse est 50%.

Évidemment, dans cet exemple, l'histoire des événements n'est pas pertinente.

En pratique, cela signifie que si une pièce de monnaie est lancée 4 fois de suite sur face, cela ne signifie absolument rien. Cela signifie également que si le graphique (pas le vrai marché financier, mais le graphique de ce stupide jeu de pile ou face) a suivi une tendance à la hausse, alors.. :
- cela ne signifie pas du tout que la probabilité d'un retour en arrière du graphique est fortement augmentée ;
- cela signifie simplement qu'il y avait cette tendance dans la dernière histoire.

Il est impossible de prévoir un processus aléatoire.
Vous pouvez dessiner une courbe de distribution normale. Vous pouvez écrire quelques mots. Vous pouvez penser que le résultat est à portée de main.
Mais il est impossible de prévoir un processus aléatoire, car c'est là son essence même : il est aléatoire.

Seuls les processus dans lesquels une certaine régularité se manifeste peuvent être prédits. Par exemple, il y a des raisons de croire que le marché financier n'est pas complètement aléatoire.

Cependant, les graphes apparemment aléatoires et non aléatoires sont très similaires.
Si vous réalisez un graphique en forme de ciseau d'aigle (vous pouvez tirer à pile ou face, noter les résultats et les entrer ensuite dans un PC sous forme de cotations incrémentielles), vous aurez du mal à le distinguer d'un graphique de cotation du marché. C'est ce qui rend la situation confuse. En fait, les feuilles d'aigle sont en principe impossibles à prévoir, alors que celles du marché le sont, dans une plus ou moins grande mesure.

La tâche du chercheur-programmeur-constructeur-TC se résume à identifier les schémas qui peuvent servir de base à des prévisions, c'est-à-dire à déterminer la différence qui distingue un graphique d'un autre - à identifier un signal utile.

 
SK. писал (а):


Si je veux acheter sur le marché, je verrai qu'il n'est pas correct de couper le marché et j'utiliserai un exemple avec une pièce de monnaie, et je n'expliquerai pas non plus les différentes martingales dans ces exemples. SK n'est pas une pièce de monnaie, mais une variable aléatoire. Par analogie, disons que la tension du réseau est de 220 volts, dans ce cas, il peut s'agir de 220 au lieu de 0 (ce qui n'est pas crucial). Mais alors personne ne voudra jouer à ce jeu avec moi, si je parie que la tension sera dans les 220V + 3sigma, contre l'autre hypothèse.

Je suis juste fatigué de demander aux fans de l'efficience ce qu'ils entendent par là, j'espérais qu'ils le verraient et qu'ils voudraient jouer, parce que selon eux le marché est efficient tout le temps en train de chercher son état d'équilibre et donc les visiteurs ne peuvent pas gagner.

Appeler quiconque à jouer selon les règles décrites ci-dessus.

SK Merci encore d'avoir vu cela

Edit : avec tout ce que vous avez écrit ci-dessus je suis absolument d'accord, bien qu'ici je définisse une variable aléatoire elle a deux régularités can et variance=const. Ça explique que je batte n'importe qui. Malheureusement, le marché n'est pas aussi simple que nous le souhaiterions.

 
Neutron:
Pas d'accord ! Par convention, les incréments ne sont PAS dépendants. Toute dépendance locale est aléatoire (stochastique), elle se terminera donc de manière aussi inattendue qu'elle a commencé, il n'y a donc aucun moyen d'exploiter cette propriété. Je ne comprends pas la deuxième variante. En général, la tentative de construire un TS rentable en utilisant un processus aléatoire (tel que défini ci-dessus) est un non-sens ! Sergey, j'ai souligné que "c'est impossible à long terme" et je n'exclus pas les variantes pour gagner localement. Ça ne contredit rien. Ce qui est important, c'est qu'en moyenne, sur un GROS historique, le rendement du TC (le rapport entre le profit total et le nombre de transactions effectuées n) tend vers zéro comme 1/SQRT(n).
Désolé, j'ai répondu dans un autre fil de discussion 'Random Flow Theory and FOREX'(je pensais que c'était plus approprié), peut-être que j'ai tort, consultez-le et commentez-le s'il vous plaît.
 
kamal:
Et pour couronner le tout, afin de ne pas agir uniquement comme un "tueur d'idées", je vais vous dire une idée très simple, que j'avais l'habitude de pousser dans mon article ici à mql4.ru, et qui a pris de l'importance avec l'expérience pratique du trading : le modèle gaussien standard de marche aléatoire géométrique peut sauver de tous les problèmes en repensant un seul paramètre : le temps. Cette idée a déjà été mentionnée ici, mais ce n'est pas un péché de la répéter encore une fois : regardez le tickframe ! Et les effets comme les "queues lourdes", comme la "volatilité", et bien d'autres choses encore, disparaîtront.

Regardez aussi : la figure ci-dessous montre en rouge le nombre de calculs de la première différence de ticks TP EUR/USD exprimée en pips et tombant dans l'intervalle de la valeur fixée en abscisse.

Alors où sont les effets manquants sous forme de"queues lourdes" ? Nous pourrions toujours faire un graphique de"volatilité", si vous suggérez sa définition correcte pour "voir" comment"beaucoup de choses manquent".

Vos photos sont très différentes de ce que j'ai construit, ce qui est intéressant. Voici une image de la branche Northwind, tous les 30 tics, par exemple (très typique, d'ailleurs, était une branche, la moitié des observations évidentes, mais utiles, et l'autre moitié - des absurdités non scientifiques comme "la preuve des possibilités de gain dans le jeu de tagging", et un jonglage de termes spéciaux en plus).

D'où viennent les tiques ?
En ce qui concerne la volatilité - dans une large mesure, ce que je dis est de la taptologie, parce que la variabilité des prix (volatilité) est directement liée à l'activité des transactions (le nombre de ticks) et en considérant le tickframe vous dévalorisez le graphique, allez au soi-disant temps opérationnel. Puisque les données sur la volatilité négociée sont fermées pour nous (c'est-à-dire que quelqu'un trouvera des options à expiration courte - vous êtes le bienvenu, mais même les détails de ces options ne sont pas librement accessibles), il est difficile de vérifier ma déclaration "directement", seulement la construction spéculative ci-dessus.

Mathématiques 09.12.2007 13:00

Pas exactement, Neutron. Nous devons construire des barres avec un volume de tick égal (equivolume). Et regardez leur p.d.f. déjà. (fonction de densité de probabilité). Cette idée a été exprimée il y a longtemps, il y a presque un an et demi, par Amir dans "The Principle of Substitution of Time in Intraday Trading".

J'ai remarqué l'article à l'époque, mais je n'étais pas encore accro au p.d.f., et je n'ai vu aucune application commerciale de ces idées. Même maintenant, je ne vois pas trop l'utilité pour le trading, mais d'un autre côté, je comprends clairement ce que l'auteur a écrit au début de l'article (c'est nous qui soulignons) : J'oserai dire que peu de développeurs de systèmes - débutants, ainsi que certains "expérimentés" - pensent que même les indicateurs les plus simples du type moyenne mobile, étant liés au temps, sont en fait une unité différente à différents moments de la journée. Bien sûr, il existe aussi des systèmes formulés en termes de prix, mais pas de temps. Un exemple typique est celui des systèmes renko et kagi, mais ils sont minoritaires. La plupart d'entre eux, je le répète, sont "liés" à l'heure, le plus souvent indirectement par le biais des indicateurs. C'est tout à fait exact : l'apparence des indicateurs continus classiques change considérablement après une telle conversion. Ceux qui essaient d'utiliser cela dans leur TS, il suffit de regarder les enveloppes et les bandes de Bollinger appliquées à ce graphique. Je pense qu'avec la disparition (ou l'amincissement significatif) des queues épaisses et la stabilisation de la variance (volatilité), ces indicateurs montreront des entrées/sorties beaucoup plus raisonnables. Vous n'obtiendrez pas de graal, mais il sera également plus facile de traiter des processus plus simples.

Personnellement, je suis intéressé par cette conversion de graphique uniquement parce que le graphique lui-même pourrait potentiellement devenir beaucoup plus proche d'un processus de Wiener - avec des incréments de p.d.f. très proches de ceux décrits par Bachelier (+-1 tick à tout moment, quel que soit le passé). La deuxième question est de savoir ce qu'il faut faire ensuite.

SK. Je comprends très bien que les volumes en tick sur Foreh sont trop dépendants du fournisseur de données et de ses filtres. Mais tu peux essayer, non ?

Je m'excuse pour cette énorme citation, mais elle permettra de reconstituer le cours du sujet en discussion.

Regardez la figure. Elle montre la distribution des incréments de prix dans les barres par 1 tick, 10, 20, 40, 80 ticks.

C'est-à-dire ce qui est requis - "barres avec un volume de ticks égal (equi volume)". Les données sont données pour EUR/JPY Alpari 2007 ticks. Il est clair que même pour TF=80, on ne peut parler de normalisation de la distribution qu'avec de grandes réserves (comparer la ligne rouge pleine et la ligne rouge avec cercles).

Peut-être que vous, kamal et Mathemat, pouvez commenter cette situation.

Raison: