Théorème de Bernoulli, Moab-Laplace ; critère de Kolmogorov ; schéma de Bernoulli ; formule de Bayes ; inégalités de Chebyshev ; loi de distribution de Poisson ; théorèmes de Fisher, Pearson, Student, Smirnov etc., modèles, langage simple, sans formules. - page 6

 
sergeyas:

Écoutons d'abord la présentation d'Alexei, puisqu'il a été le premier à le faire.

Yusuf et tous les autres, ne prenez pas cela comme une diminution de vos connaissances sur le sujet.

Au lieu d'être cohérent, vous commencez à accumuler des termes supplémentaires et à prendre de l'avance.



C'est une maladie des commerçants. Peur de ne pas pouvoir appuyer sur le bouton. Je suis moi-même comme ça.
 

Le concept de distribution normale du chapitre 9 de Bollinger sur les bandes de Bollinger.

 
 

Ce fil de discussion promet d'être un bon réservoir de connaissances.

Il y a longtemps, j'ai décidé de mettre en pratique la distribution normale, pour laquelle j'ai réalisé une expérience numérique. J'ai fait 500 séries cumulées de 10 000 tests indépendants. Nous obtenons 500 graphes non connectés aléatoires. Nous prenons pour eux le même point de référence et regardons comment ils vont diverger avec le temps, ou pour être plus exact, avec l'augmentation du nombre de tests. Ainsi, leur divergence obéira à la loi de distribution normale et, dans l'ensemble, ils formeront une cloche de la distribution normale :

Ce qui est intéressant, c'est que la divergence moyenne sera égale à la racine carrée du nombre d'essais. Ainsi, après 1 000 essais, on est en droit de s'attendre à ce que l'une des séries, en moyenne, soit éloignée de 32 points de sa position zéro initiale, tandis qu'après 10 000 essais, elle ne sera éloignée que de 100 points. Vous pouvez le constater par la forme de la cloche. Au début, elle diverge assez fortement sur les côtés, puis la "vitesse" de divergence commence à diminuer.

Un fait intéressant est que la somme de toutes les séries de 500, quel que soit le nombre d'essais qu'elles contiennent, sera approximativement égale à zéro. Cela est parfaitement illustré dans l'image : 50% des séries étaient supérieures à zéro après 10 000 essais, tandis que 50% étaient supérieures à zéro. Ainsi, l'état moyen ou l'espérance mathématique de tous les systèmes tendra vers zéro.

J'ai donc une question pour les connaisseurs : comment calculer l'écart de l'espérance mathématique réelle par rapport à la MO théorique, nulle ? Après tout, bien sûr, rien ne permet d'espérer que la somme de tous les tests soit clairement égale à 0. Elle peut être égale à +3 ou -20, par exemple. Et une deuxième sous-question : cette valeur d'erreur s'effondrera-t-elle jusqu'à zéro avec l'augmentation des essais, ou se "figera-t-elle" à un niveau proportionnel à la racine carrée du nombre d'essais ?

 
C-4:

comment calculer l'écart de l'espérance mathématique réelle par rapport à la MO théorique, nulle ? Après tout, bien sûr, rien ne permet d'espérer que la somme de tous les tests soit clairement égale à 0. Elle peut être de +3 ou de -20, par exemple. Et une deuxième sous-question : cette valeur d'erreur s'effondrera-t-elle jusqu'à zéro avec l'augmentation des essais, ou se "figera-t-elle" à un niveau proportionnel à la racine carrée du nombre d'essais ?


sb est la somme de variables aléatoires indépendantes. Que les incréments soient normalement distribués avec mo=0, sko=X. Ensuite, la somme des N incréments est également NR avec mo=0, sko=SQRT(N)*X, ce qui est ce que vous avez dans la figure (N ici est 10000).

Si nous prenons la somme de M telles sbs indépendantes, elle sera également normalement distribuée avec mo=0, sko=SQRT(M*N)*X

Ainsi, lorsque le nombre d'essais augmente, la somme ne se fige pas ou ne tend pas vers zéro, mais augmente au contraire proportionnellement à la racine du nombre d'essais. Mais la moyenne arithmétique (également divisée par le nombre d'essais), convergera vers zéro lorsque le nombre d'essais augmentera, en raison du théorème de Bernoulli déjà examiné.

 
Que sont les "queues" dans la distribution ? S'agit-il de valeurs aberrantes qui sortent clairement de la distribution ?
 

Если взять сумму M таких независимых сб, то она так же буден распределена нормально с мо=0, ско=SQRT(M*N)*X

OK, laissez-moi essayer de résoudre le problème : on donne 10 séries cumulatives de 10 000 tests chacune. Le résultat final de la série est le suivant :

1
145
2
-32
3
-80
4
25
5
-172
6
102
7
78
9
-121
10
95
Total
40

La somme de M frères et sœurs indépendants est de +40. Substituez le résultat dans la formule : SQRT(40*10,000) * 100 = 63,245. Il s'avère que le résultat est inadéquat. Je dois avoir mal compris ce que signifie "somme de M".

Ou cela signifie-t-il qu'il faut aligner toutes les expériences une par une et analyser l'écart du résultat final par rapport au mode opératoire ?

 
C-4: Il y a longtemps, j'ai décidé d'obtenir une distribution normale en pratique, pour laquelle j'ai réalisé une expérience numérique. J'ai fait 500 séries cumulées de 10 000 tests indépendants. Nous obtenons 500 graphes aléatoires non liés. Nous prenons pour eux le même point de référence et regardons comment ils vont diverger avec le temps, ou pour être plus exact, avec l'augmentation du nombre de tests. Leur divergence obéira donc à la loi normale de distribution et, dans l'ensemble, ils formeront une cloche de la distribution normale :

Ce n'est pas une bonne idée d'illustrer une distribution normale. Je ne suis pas sûr que l'arrêt du processus à, disons, 10 000 donne exactement une distribution normale dans la section transversale. De plus, cette distribution a des paramètres qui changent constamment.

Si je me trompe, donnez-moi un lien où il est affirmé que la distribution de la "section transversale" (c'est-à-dire les divergences par rapport à zéro) est au moins asymptotiquement normale.

SProgrammer: Comprendre cela est la clé pour comprendre 90% du théorème.

Sans formules, vous ne pourrez pas vous faire une idée de la situation jusqu'au foie. Vous le savez vous-même. Mais vous ne pouvez pas utiliser de formules ici.

yosuf: Cela montre que les solutions des équations du bilan matière et les lois théoriques coïncident et se complètent mutuellement dans l'interprétation des résultats de l'analyse des phénomènes.

N'avez-vous pas entendu dire que la fonction gamma se retrouve dans toutes sortes de domaines de la science et de l'ingénierie ?

Je ne vois rien de surnaturel dans son apparition lors de la résolution des diphuras. Et vous n'avez évoqué la distribution gamma que parce que vous avez vu comment s'appelle cette fonction dans Excel. Eh bien, quel rapport dans tes diphuras avec les tervers, Yusuf? !

SProgrammer dit correctement qu'il y a très peu de distributions réellement utilisées dans le terver/matstat - bien que vous puissiez les inventer autant que vous voulez. Donc, pour vous aussi, si vous êtes toujours aussi enthousiaste (18), je vous recommande d'essayer de réfléchir à Erlang et à l'endroit où vous l'avez obtenu. Essayez simplement de présenter vos réflexions non pas sous forme de conclusions lapidaires comme celle citée ci-dessus, mais sous une forme plus complète.

J'ai regardé Feller, vol. 2. Il y a quelque chose sur la distribution gamma, mais il y a des formules horribles et seulement quelques mots sur Erlang. Donc pas ici.

Mais la distribution exponentielle a quelque chose d'intéressant (Feller, vol. 2, p. 69) :


Ceci est particulièrement intéressant car la distribution des retours de prix est bien approximée par la distribution de Laplace.
 
C-4:

OK, laissez-moi essayer de résoudre le problème : on donne 10 séries cumulatives de 10 000 tests chacune. Le résultat final de la série est le suivant :

1
145
2
-32
3
-80
4
25
5
-172
6
102
7
78
9
-121
10
95
Total
40

La somme de M frères et sœurs indépendants est de +40. Substituez le résultat dans la formule : SQRT(40*10,000) * 100 = 63,245. Le résultat s'avère quelque peu inadéquat. Je dois avoir mal compris ce que signifie "somme de M".

Ou cela signifie-t-il qu'il faut enchaîner toutes les expériences une par une et analyser l'écart du résultat final par rapport au mode opératoire ?


Basil, commençons par le début. Avez-vous modélisé une marche aléatoire comme une somme cumulative d'incréments de type pièce de monnaie ? Deux résultats +1 et -1 avec des probabilités égales de 0,5/0,5. Cette variable aléatoire elle-même n'est pas distribuée normalement - c'est une distribution discrète avec 2 valeurs. Son MO=0 et RMS=SQRT(0.5*0.5)=0.5

Nous considérons alors déjà la marche aléatoire comme une somme de ces incréments. Supposons que nous prenions 10000 incréments comme vous le faites. A quoi sera-t-il égal ? Il s'agit manifestement d'une variable aléatoire (la seconde). Si les incréments sont indépendants, cette distribution convergera vers la normale avec un nombre croissant d'essais avec MO=0, RMS=SQRT(10000)*0.5=50. A partir de cela et de la règle des 3x sigma par exemple, on peut déduire que plus de 99% des réalisations de cette VS se situeront dans l'intervalle -150...+150. C'est-à-dire qu'en dehors de cet intervalle, moins de 10000*0,01=100 réalisations CB.

Alors vous considérez déjà la somme de ces CB. Vous avez dans la colonne la somme de 10 réalisations de cette BC. Ce sera la nouvelle (déjà troisième) SA, qui est également distribuée normalement avec MO=0, RMS=50*SQRT(10) =158. Ce que vous avez au total +40 n'est qu'une réalisation de cette troisième SV. Mais elle varie assez largement. Encore une fois, 99% des données se situeront dans la plage -474...+474

 
Les baleines théoriciennes ont oublié ma petite question(
Raison: