Bernoulli, teorema de Moab-Laplace; criterio de Kolmogorov; esquema de Bernoulli; fórmula de Bayes; desigualdades de Chebyshev; ley de distribución de Poisson; teoremas de Fisher, Pearson, Student, Smirnov, etc., modelos, lenguaje sencillo, sin fórmulas.

 

¿Podría explicar su significado en términos sencillos?

Por ejemplo, en el tipo de explicación y ejemplo de una cadena de Markov, es uno de los casos más simples de una secuencia de eventos aleatorios. Pero, a pesar de su simplicidad, a menudo puede ser útil incluso cuando se describen fenómenos bastante complejos.

Cadena Una cadena de Markov es una secuencia de sucesos aleatorios en la que la probabilidad de cada suceso depende sólo del anterior, pero es independiente de los anteriores. Por ejemplo, una cadena de Markov es una secuencia de barajar una baraja de cartas. La probabilidad de que después de otra barajada las cartas estén en un determinado orden depende sólo de su ordenación antes de esa barajada y es independiente de todas las anteriores. Es decir, la secuencia de estados de un sistema es una cadena de Markov, si el estado actual del sistema determina por completo lo que le puede ocurrir a continuación, y cómo ha llegado a ese estado es irrelevante.
 

De todo esto, el único que me sirvió fue este - Una cadena de Markov es una secuencia de eventos aleatorios en la que la probabilidad de cada evento depende sólo del estado en el que se encuentra el proceso en el momento actual y es independiente de los estados anteriores.


 
sever31:

¿Podría explicar su significado en términos sencillos?

Por ejemplo, en el tipo de explicación y ejemplo de una cadena de Markov, es uno de los casos más simples de una secuencia de eventos aleatorios. Pero, a pesar de su simplicidad, a menudo puede ser útil incluso cuando se describen fenómenos bastante complejos.

Cadena Una cadena de Markov es una secuencia de eventos aleatorios en la que la probabilidad de cada evento depende sólo del anterior, pero es independiente de los eventos anteriores. Por ejemplo, una cadena de Markov es una secuencia de barajar una baraja de cartas. La probabilidad de que después de otra barajada las cartas estén dispuestas en un determinado orden depende sólo de su disposición antes de esa barajada y es independiente de todas las anteriores. Es decir, la secuencia de estados de un sistema es una cadena de Markov, si el estado actual del sistema determina por completo lo que le puede ocurrir a continuación, y cómo ha llegado a ese estado es irrelevante.

Hay algo en el ejemplo de la tarjeta que no me convence. Obviamente, el orden en el que terminan las cartas después de la última barajada depende de todas las barajadas anteriores.

Si se trata de algún sentido especial del término "dependencia", entonces eso es jugar con la terminología para los "elegidos".

 
sever31:

¿Podría explicar su significado en términos sencillos?

Por ejemplo, en el tipo de explicación y ejemplo de una cadena de Markov, es uno de los casos más simples de una secuencia de eventos aleatorios. Pero, a pesar de su simplicidad, a menudo puede ser útil incluso cuando se describen fenómenos bastante complejos.

Cadena Una cadena de Markov es una secuencia de sucesos aleatorios en la que la probabilidad de cada suceso depende sólo del anterior, pero es independiente de los sucesos anteriores. Por ejemplo, una cadena de Markov es una secuencia de barajar una baraja de cartas. La probabilidad de que después de otra barajada las cartas estén en un determinado orden depende sólo de su ordenación antes de esa barajada y es independiente de todas las anteriores. Es decir, la secuencia de estados de un sistema es una cadena de Markov, si el estado actual del sistema determina por completo lo que le puede ocurrir a continuación, y cómo ha llegado a ese estado es irrelevante.
Yo lo entiendo así. Por ejemplo, tomemos (en nuestro caso) una VENTA y una BAJA. La probabilidad de colocar una orden en la posición correcta es 1/2, es decir, el 50%. Tenemos en cuenta el diferencial, por lo que es menor. Siguiente paso: si ganamos, la siguiente probabilidad es 1/2 - (menos) 1/4, si perdemos, es 1/2+1/4 y así sucesivamente. ))))
 
MoneyJinn: No me convence el ejemplo de la tarjeta. Obviamente, el orden en el que terminan las cartas después de la última barajada depende de todas las barajadas anteriores.
El ejemplo de las cartas dice que la secuencia de cartas en la última baraja es toda la información que tenemos para calcular la probabilidad de diferentes secuencias en la siguiente baraja. Añadir los resultados de las barajadas anteriores no nos da ninguna información nueva.
 
Mathemat:


Alexei, ¿podría dar una explicación clara y concisa de las mencionadas enseñanzas de los ciudadanos enumerados, con ejemplos?
 

Podría, pero ahora estoy enfadado. Escribí 15 líneas sobre el teorema de Bernoulli, pero el foro me hizo reiniciar la sesión. Todo se perdió. Espera un momento, Vladimir.

P.D. Ni siquiera preguntes por qué el foro tiene tantos fallos. No lo sé. No es fácil mover un foro tan grande.

 

De hecho, para cubrir todo el abanico de preguntas formuladas por el iniciador del tema, necesitamos escribir un artículo. Para los académicos. Será muy difícil, porque la terver/matoestadística se refiere tradicionalmente a teorías bastante complicadas: los sociólogos, los médicos y los biólogos suelen aplicar muy incorrectamente la terver/matoestadística al interpretar sus observaciones. La razón es que su formación básica no es matemática.

En resumen, empecemos poco a poco, un problema a la vez.

Así que, aquí está el teorema de Bernoulli en la EEB. De hecho, para el humanista este artículo no aclara nada, porque la formulación del teorema en sí no está. Sólo existe una estimación de la probabilidad de desviación de la frecuencia de un evento con respecto a su probabilidad (¿todavía no se ha confundido?) por Chebyshev.

De forma sencilla, pero desgraciadamente bastante incorrecta, el teorema de Bernoulli dice lo siguiente:

La frecuencia de un suceso [en el esquema de Bernoulli] tiende a su probabilidad a medida que aumenta el número de ensayos.

Para explicar la formulación (especialmente la letra pequeña), habrá que profundizar al menos un poco en algunos conceptos básicos de la teoría de la probabilidad.

1. La probabilidad en la teoría de la probabilidad es un concepto indefinible (como la línea recta y el punto en la geometría). Pero para aplicarlo con sentido, tenemos que interpretarlo de alguna manera. En terversa se acepta la interpretación de la frecuencia: la probabilidad de un evento es aproximadamente igual a la frecuencia de su ocurrencia bajo condiciones constantes de repetición de pruebas y con un número muy grande de pruebas. Digamos que, si lanzamos el dado y seguimos el suceso "Han caído cinco", y nuestro dado es perfecto (todas las caras son igualmente preferibles), entonces la probabilidad de este suceso p = 1/6, y la probabilidad del suceso adicional ("ha caído cualquier cosa menos cinco") es q = 1 - p = 5/6. Así, si lanzamos este dado un millón de veces, la frecuencia de cinco será aproximadamente 1/6, y las posibles desviaciones de la frecuencia son casi siempre muy poco diferentes de 1/6.

2. ¿Qué es un esquema Bernoulli? Se trata de una secuencia de ensayos de un solo tipo e independientes en los que sólo son posibles 2 resultados: éxito (Y) y fracaso (F).

En nuestro caso podemos tomar Y como el evento "se cayó una A" y H como "se cayó algo más, no igual a una A". Conocemos la probabilidad de éxito y es p = 1/6.

La palabra "independiente" es casi lo más importante en el esquema de Bernoulli. Si soy un crupier experimentado y estoy jugando con alguien, es casi seguro que puedo controlar el juego para convertirlo en mi ventaja. Podré hacer un seguimiento de los resultados y seguir tirando los dados para ganar. En otras palabras, soy capaz de romper la condición más importante de los ensayos en el esquema de Bernoulli - su independencia. Y las estimaciones de probabilidad de las que hablamos aquí serán erróneas.

3. Sabemos que si lanzamos el dado 10 veces, el cinco puede caer 0, 2, 5 y hasta 10 veces. El resultado más probable de los mencionados es 2 veces de 10 (es el más cercano a una probabilidad de 1/6). La probabilidad del resultado "cinco nunca ocurrió" no es alta ni baja, pero para el resultado "10 de 10 - cinco" es extremadamente baja. ¿Qué leyes rigen estas probabilidades? Una de las técnicas más utilizadas para averiguar dicha ley es la "multiplicación" de las actualizaciones: llamemos serie a una única secuencia de 10 lanzamientos y empecemos a realizar muchas series.

Si realizamos muchas series de 10 lanzamientos (digamos, N = 1.000.000 de series), luego introducimos en una tabla los resultados de las series ("2 cincos", "5 cincos", etc.), y luego dibujamos un histograma, es decir, la dependencia de la frecuencia de las series con respecto al resultado, obtendremos una curva muy parecida a una gaussiana, es decir, una campana. De hecho, no es una curva gaussiana, aunque con un millón de series se diferenciará muy poco de la curva gaussiana. Este histograma puede calcularse teóricamente y corresponderá a una distribución binomial.

La principal diferencia entre los casos N=100 y N=1.000.000 será sólo la "anchura media" de los histogramas. En el segundo caso es mucho menor que en el primero, es decir, el histograma es más estrecho. La "anchura media" (desviación estándar) es una medida de la desviación de las frecuencias posibles respecto a las teóricas.

Ahora podemos dar voz al teorema de Bernoulli:

A medida que aumenta el número de ensayos N del esquema de Bernoulli, la probabilidad de que la desviación real de la tasa de éxito respecto a la probabilidad de éxito no supere una epsilon>0 predeterminada tiende a 1.

El teorema de Bernoulli no da estimaciones de lo grande que puede ser la desviación para un N dado. Estas estimaciones pueden realizarse con la ayuda del teorema de Mois-Laplace (local o integral). Pero sobre esto - la próxima vez. Por ahora, haz preguntas.

P.D. He corregido los errores en el título del tema.

 

El tema es SUPER. Me ha sorprendido su aspecto.

Va a ser difícil para los autores. Es como una traducción competente del chino.

Tómense su tiempo, chicos.

 

En mi opinión, no servirá de nada. Todo esto está vacío en ausencia de una base adecuada. Quién tiene una base, no necesita masticar, esas u otras características para explicar esas u otras condiciones - no hay preguntas, pero por lo demás ... :-).

Lee la cartilla en varias ocasiones y ¡¡¡SERÁS RELEVANTE!!! :-)

P.D. ... especialmente "... en lenguaje sencillo, sin fórmulas" ¿Qué quiere decir con lenguaje sencillo, sin fórmulas? Una cosa se contradice con la otra... :-) Un lenguaje mucho más sencillo y breve que el de una fórmula. Cuando hay una fórmula concreta, sobre todo con una descripción de las variables que la componen, no hace falta ningún lenguaje... todo está claro.