Théorème de Bernoulli, Moab-Laplace ; critère de Kolmogorov ; schéma de Bernoulli ; formule de Bayes ; inégalités de Chebyshev ; loi de distribution de Poisson ; théorèmes de Fisher, Pearson, Student, Smirnov etc., modèles, langage simple, sans formules. - page 10

 

Si A et B sont des variables aléatoires indépendantes, alors la variance de la somme de ces variables est égale à la somme de leurs variances.

Je pense que c'est juste une question d'arithmétique. Pratique :)

 
Non, la condition est moins stricte - les variables aléatoires doivent être non corrélées, l'indépendance est facultative.
 
Alexei, j'ai donné une définition, mais j'ai oublié d'y mettre les guillemets :)
 
l'homme développait une direction, il a commencé par l'arithmétique - ou plus précisément - par les conditions. Je commencerais par le même...
 

Je pense que j'ai résolu la questionde la variance pour moi-même à.

Introduisons une pseudo-définition:

Pseudo-mesurede dispersion d'une variable aléatoire(estimation relative) - distance entre deux ensembles commensurables (c'est-à-dire de même taille): ensemble original et un ensemble "idéal" constitué uniquement de "moyennes ", normalisées pour l'espace auquel appartient l'ensemble original.

Si nous substituons l'ensemble de l'espace linéaire dans cette définition, nous obtenons RMS. Mais si l'ensemble provient d'un espace non linéaire, alors...

Voici, évidemment, la question subconsciente qui me dérangeait à propos de la variance : pourquoi le carré du RMS est-il passé à la variance, qui est une définition plus générale de la mesure de dispersion d'une variable aléatoire ?

Raison: