Théorème de Bernoulli, Moab-Laplace ; critère de Kolmogorov ; schéma de Bernoulli ; formule de Bayes ; inégalités de Chebyshev ; loi de distribution de Poisson ; théorèmes de Fisher, Pearson, Student, Smirnov etc., modèles, langage simple, sans formules. - page 8

 
Mathemat:
Faites ce que vous voulez. Je ne peux pas vous conseiller car je ne connais pas les caractéristiques du processus de tic-tac.

Il ne s'agit pas de simuler un processus réel de tique. Au contraire, tout ce dont j'ai besoin jusqu'à présent, ce sont les distributions normales classiques sous forme d'OHLC. En gros, le problème se résume à déterminer le High et le Low, si Open = Close-1, et Close = sqrt(N), où N est le nombre de ticks.
 
C-4:

Il ne s'agit pas de simuler un processus réel de tique. Au contraire, tout ce dont j'ai besoin jusqu'à présent est une distribution normale classique sous forme d'OHLC. En gros, le problème est de déterminer le High et le Low, si Open = Close-1, et Close = sqrt(N), où N est le nombre de ticks.

Autant que je me souvienne, pour une série aléatoire, la longueur du corps du chandelier |Close-Open| est égale à la somme moyenne des longueurs d'ombre supérieure et inférieure. Par conséquent, après avoir modélisé Close comme sqrt(N), nous modélisons la longueur de l'ombre supérieure comme |sqrt(N/4)| et de même pour l'ombre inférieure. Bien entendu, il s'agit d'une variante du sb symétrique (mo=0). Pour l'asymétrique, c'est légèrement différent.
 
Avals:

Autant que je me souvienne, pour une série aléatoire, la longueur du corps de la bougie |Close-Open| est égale à la somme moyenne des longueurs d'ombre supérieure et inférieure. Par conséquent, après avoir modélisé Close comme sqrt(N), nous modélisons la longueur de l'ombre supérieure comme |sqrt(N/4)| et de même pour l'ombre inférieure. Bien entendu, il s'agit d'une variante du sb symétrique (mo=0). Pour un modèle asymétrique, c'est légèrement différent.

mais non, ce sera faux. Parce que la longueur du corps du chandelier et celle de l'ombre sont dépendantes. C'est pourquoi il est préférable de générer beaucoup de chandeliers, puis d'obtenir une nouvelle série comme un chandelier arbitraire à partir de cet ensemble, plutôt que de chercher une distribution analytique des ombres.
 

J'ai pensé, pourquoi ne pas faire plus simple : nous prenons quatre valeurs générées : la première sera la différence entre Open et Low, la somme de la deuxième et de la troisième sera la différence entre Low et High, et la quatrième sera la différence entre High et Close :

Avec de grandes quantités de données, Close convergera vers Open, et l'écart High-Low aura une variance double de la valeur des segments (quatre nombres avec une variance donnée).

 
C-4:

Il ne s'agit pas d'imiter le vrai processus de tique. Au contraire, tout ce dont j'ai besoin, c'est de la distribution normale classique sous forme d'OHLC. En gros, la tâche consiste à déterminer le High et le Low, si Open = Close-1, et Close = sqrt(N), où N est le nombre de ticks.

Il était une fois, il y a longtemps, je générais des citations artificielles aléatoires. J'ai fait ce qui suit : pour chaque minute, j'ai trouvé 3 variables aléatoires indépendantes H, L et dlt - décalage par barre. Je les trouve en suivant la méthode gaussienne (en points) avec un gain attendu nul et une variance spécifiée. En même temps j'ai pris la valeur obtenue modulo. J'ai également choisi la direction du déplacement - sgn - par hasard, 50/50. Donc Close = Open+sgn*dlt, pour trouver Hg j'ai pris le plus grand de (Open, Close) et j'y ai ajouté H ; pour trouver Lw j'ai pris le plus petit de (Open, Close) et j'en ai soustrait L.

Bien entendu, les citations obtenues sont comparées à des citations réelles (mais au niveau de la perception subjective). J'étais alors étonné de constater que la seule quantité qui définit la "similitude" des cotations artificielles avec les cotations réelles est la variance de décalage - dlt. Pour qu'il soit similaire aux cotiers naturels, la variance des décalages doit être très faible, c'est-à-dire que la plupart des décalages minute doivent être nuls. Sinon, un marché ultra-volatile en résulterait. La variance de Hg et de Lw a influencé le degré d'"hirsute" du quotire. Afin d'imiter une tendance, j'ai légèrement modifié la probabilité de sélection de la direction - 49/51 - nous avons obtenu une tendance puissante si nous la regardons sur un jour.

Ainsi, dans l'ensemble, nous nous sommes retrouvés avec un modèle très simple pour la génération de différents modes - j'avais besoin d'une tendance très volatile - j'ai augmenté la variance du décalage et modifié la probabilité de la direction. J'avais besoin d'un appartement à faible volatilité - j'ai fait en sorte que la variance du changement soit très faible et la direction 50/50.

 
C-4:

J'ai pensé, pourquoi ne pas faire plus simple : nous prenons quatre valeurs générées : la première sera la différence entre Open et Low, la somme de la deuxième et de la troisième sera la différence entre Low et High, et la quatrième sera la différence entre High et Close :

Avec de grandes quantités de données, Close convergera vers Open, et l'écart High-Low aura une variance double de la valeur des segments (quatre nombres avec une variance donnée).

Les idées de botscar sont-elles inadaptées ?
 
C-4:
...Mais c'est une méthode très lente et inutile.

Ce n'est pas si lent, tu n'auras pas le temps d'allumer une cigarette.

 
faa1947:
Les idées de bottes sont-elles inappropriées ?


Qu'est-ce que le bootsrap ?

Entier:

Pas si lentement, vous n'aurez pas le temps d'allumer une cigarette.

Je vais essayer de l'implémenter en C# pur.
 

J'ai une question sur le sujet

J'essaie de comprendre la portée des distributions suivantes :

Distribution de Pareto généralisée(GPD) et distribution des valeurs extrêmes(GEV)

Quelle est la relation de ces distributions entre elles, avec une distribution normale et respectivement avec une distribution uniforme ? En d'autres termes, comment les événements qu'ils décrivent peuvent-ils se produire dans la vie réelle ?

 
C-4:


Qu'est-ce que le bootsrap ?


Il y en a à VIKI.

L'idée est d'échanger un échantillon disponible au hasard pour que les fréquences convergent vers la probabilité des paramètres disponibles sur l'échantillon.

Raison: