Bernoulli, teorema de Moab-Laplace; criterio de Kolmogorov; esquema de Bernoulli; fórmula de Bayes; desigualdades de Chebyshev; ley de distribución de Poisson; teoremas de Fisher, Pearson, Student, Smirnov, etc., modelos, lenguaje sencillo, sin fórmulas.
http://www.buddism.ru/lib/TEXTS_/ANN/KS22.pdf
http://rain.ifmo.ru/cat/view.php/theory/processes-automata/markov-2008
http://mtkurs.ru/tipmat/kursova111.htm
http://www.exponenta.ru/educat/systemat/gomboev/labteorver/lr11/LR11.asp
etc.
De todo esto, el único que me sirvió fue este - Una cadena de Markov es una secuencia de eventos aleatorios en la que la probabilidad de cada evento depende sólo del estado en el que se encuentra el proceso en el momento actual y es independiente de los estados anteriores.
¿Podría explicar su significado en términos sencillos?
Por ejemplo, en el tipo de explicación y ejemplo de una cadena de Markov, es uno de los casos más simples de una secuencia de eventos aleatorios. Pero, a pesar de su simplicidad, a menudo puede ser útil incluso cuando se describen fenómenos bastante complejos.
Hay algo en el ejemplo de la tarjeta que no me convence. Obviamente, el orden en el que terminan las cartas después de la última barajada depende de todas las barajadas anteriores.
Si se trata de algún sentido especial del término "dependencia", entonces eso es jugar con la terminología para los "elegidos".
¿Podría explicar su significado en términos sencillos?
Por ejemplo, en el tipo de explicación y ejemplo de una cadena de Markov, es uno de los casos más simples de una secuencia de eventos aleatorios. Pero, a pesar de su simplicidad, a menudo puede ser útil incluso cuando se describen fenómenos bastante complejos.
Alexei, ¿podría dar una explicación clara y concisa de las mencionadas enseñanzas de los ciudadanos enumerados, con ejemplos?
Podría, pero ahora estoy enfadado. Escribí 15 líneas sobre el teorema de Bernoulli, pero el foro me hizo reiniciar la sesión. Todo se perdió. Espera un momento, Vladimir.
P.D. Ni siquiera preguntes por qué el foro tiene tantos fallos. No lo sé. No es fácil mover un foro tan grande.
De hecho, para cubrir todo el abanico de preguntas formuladas por el iniciador del tema, necesitamos escribir un artículo. Para los académicos. Será muy difícil, porque la terver/matoestadística se refiere tradicionalmente a teorías bastante complicadas: los sociólogos, los médicos y los biólogos suelen aplicar muy incorrectamente la terver/matoestadística al interpretar sus observaciones. La razón es que su formación básica no es matemática.
En resumen, empecemos poco a poco, un problema a la vez.
Así que, aquí está el teorema de Bernoulli en la EEB. De hecho, para el humanista este artículo no aclara nada, porque la formulación del teorema en sí no está. Sólo existe una estimación de la probabilidad de desviación de la frecuencia de un evento con respecto a su probabilidad (¿todavía no se ha confundido?) por Chebyshev.
De forma sencilla, pero desgraciadamente bastante incorrecta, el teorema de Bernoulli dice lo siguiente:
La frecuencia de un suceso [en el esquema de Bernoulli] tiende a su probabilidad a medida que aumenta el número de ensayos.
Para explicar la formulación (especialmente la letra pequeña), habrá que profundizar al menos un poco en algunos conceptos básicos de la teoría de la probabilidad.
1. La probabilidad en la teoría de la probabilidad es un concepto indefinible (como la línea recta y el punto en la geometría). Pero para aplicarlo con sentido, tenemos que interpretarlo de alguna manera. En terversa se acepta la interpretación de la frecuencia: la probabilidad de un evento es aproximadamente igual a la frecuencia de su ocurrencia bajo condiciones constantes de repetición de pruebas y con un número muy grande de pruebas. Digamos que, si lanzamos el dado y seguimos el suceso "Han caído cinco", y nuestro dado es perfecto (todas las caras son igualmente preferibles), entonces la probabilidad de este suceso p = 1/6, y la probabilidad del suceso adicional ("ha caído cualquier cosa menos cinco") es q = 1 - p = 5/6. Así, si lanzamos este dado un millón de veces, la frecuencia de cinco será aproximadamente 1/6, y las posibles desviaciones de la frecuencia son casi siempre muy poco diferentes de 1/6.
2. ¿Qué es un esquema Bernoulli? Se trata de una secuencia de ensayos de un solo tipo e independientes en los que sólo son posibles 2 resultados: éxito (Y) y fracaso (F).
En nuestro caso podemos tomar Y como el evento "se cayó una A" y H como "se cayó algo más, no igual a una A". Conocemos la probabilidad de éxito y es p = 1/6.
La palabra "independiente" es casi lo más importante en el esquema de Bernoulli. Si soy un crupier experimentado y estoy jugando con alguien, es casi seguro que puedo controlar el juego para convertirlo en mi ventaja. Podré hacer un seguimiento de los resultados y seguir tirando los dados para ganar. En otras palabras, soy capaz de romper la condición más importante de los ensayos en el esquema de Bernoulli - su independencia. Y las estimaciones de probabilidad de las que hablamos aquí serán erróneas.
3. Sabemos que si lanzamos el dado 10 veces, el cinco puede caer 0, 2, 5 y hasta 10 veces. El resultado más probable de los mencionados es 2 veces de 10 (es el más cercano a una probabilidad de 1/6). La probabilidad del resultado "cinco nunca ocurrió" no es alta ni baja, pero para el resultado "10 de 10 - cinco" es extremadamente baja. ¿Qué leyes rigen estas probabilidades? Una de las técnicas más utilizadas para averiguar dicha ley es la "multiplicación" de las actualizaciones: llamemos serie a una única secuencia de 10 lanzamientos y empecemos a realizar muchas series.
Si realizamos muchas series de 10 lanzamientos (digamos, N = 1.000.000 de series), luego introducimos en una tabla los resultados de las series ("2 cincos", "5 cincos", etc.), y luego dibujamos un histograma, es decir, la dependencia de la frecuencia de las series con respecto al resultado, obtendremos una curva muy parecida a una gaussiana, es decir, una campana. De hecho, no es una curva gaussiana, aunque con un millón de series se diferenciará muy poco de la curva gaussiana. Este histograma puede calcularse teóricamente y corresponderá a una distribución binomial.
La principal diferencia entre los casos N=100 y N=1.000.000 será sólo la "anchura media" de los histogramas. En el segundo caso es mucho menor que en el primero, es decir, el histograma es más estrecho. La "anchura media" (desviación estándar) es una medida de la desviación de las frecuencias posibles respecto a las teóricas.
Ahora podemos dar voz al teorema de Bernoulli:
A medida que aumenta el número de ensayos N del esquema de Bernoulli, la probabilidad de que la desviación real de la tasa de éxito respecto a la probabilidad de éxito no supere una epsilon>0 predeterminada tiende a 1.
El teorema de Bernoulli no da estimaciones de lo grande que puede ser la desviación para un N dado. Estas estimaciones pueden realizarse con la ayuda del teorema de Mois-Laplace (local o integral). Pero sobre esto - la próxima vez. Por ahora, haz preguntas.
P.D. He corregido los errores en el título del tema.
En mi opinión, no servirá de nada. Todo esto está vacío en ausencia de una base adecuada. Quién tiene una base, no necesita masticar, esas u otras características para explicar esas u otras condiciones - no hay preguntas, pero por lo demás ... :-).
Lee la cartilla en varias ocasiones y ¡¡¡SERÁS RELEVANTE!!! :-)
P.D. ... especialmente "... en lenguaje sencillo, sin fórmulas" ¿Qué quiere decir con lenguaje sencillo, sin fórmulas? Una cosa se contradice con la otra... :-) Un lenguaje mucho más sencillo y breve que el de una fórmula. Cuando hay una fórmula concreta, sobre todo con una descripción de las variables que la componen, no hace falta ningún lenguaje... todo está claro.
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Usted acepta la política del sitio web y las condiciones de uso
¿Podría explicar su significado en términos sencillos?
Por ejemplo, en el tipo de explicación y ejemplo de una cadena de Markov, es uno de los casos más simples de una secuencia de eventos aleatorios. Pero, a pesar de su simplicidad, a menudo puede ser útil incluso cuando se describen fenómenos bastante complejos.