Tutoriales de programación - página 14

 

La distribución normal


La distribución normal

Hoy discutiremos las distribuciones de probabilidad normales y la regla empírica. Cuando se trata de una variable aleatoria continua, su curva de densidad a menudo toma la forma de una curva de campana. Esta curva en forma de campana indica que la mayor parte de la probabilidad se concentra cerca del centro, o media, de la distribución. Sin embargo, en teoría, son posibles resultados tan grandes o tan pequeños como puedas imaginar.

Las distribuciones normales se encuentran comúnmente en escenarios de la vida real. Por ejemplo, si medimos la longitud de bebés recién nacidos seleccionados al azar, observamos las velocidades de los vehículos en una carretera abierta o examinamos las puntuaciones de estudiantes elegidos al azar en pruebas estandarizadas, es probable que todas estas variables aleatorias sigan distribuciones aproximadamente normales. Las distribuciones normales presentan simetría alrededor de la media, lo que significa que las probabilidades de obtener resultados inferiores a la media son las mismas que las de obtener resultados superiores a la media. Entonces, al considerar la longitud de los recién nacidos, es igualmente probable que encontremos bebés por encima o por debajo del promedio.

Las características de una distribución normal se describen completamente por su media y varianza (o desviación estándar). La media representa el centro de la distribución, mientras que la desviación estándar representa la distancia desde la media hasta los puntos de inflexión de la curva. Estos puntos de inflexión marcan la transición de la forma de colina a la forma de valle de la curva.

Tomemos un ejemplo que involucre puntajes SAT de 2017. Los puntajes en el SAT se distribuyeron aproximadamente normalmente con una media de 1060 y una desviación estándar de 195. Al dibujar un gráfico de esta distribución, ubicamos la media en 1060 y marcamos los puntos de inflexión uno desviación estándar de la media en ambas direcciones. También podemos marcar puntos adicionales correspondientes a una desviación estándar por encima y por debajo de la media.

Al interpretar las curvas de densidad, las áreas debajo de ellas representan probabilidades. Del gráfico, podemos ver que la probabilidad de seleccionar al azar una puntuación entre 865 y 1060 es sustancialmente mayor que seleccionar una puntuación entre 670 y 865. Para cuantificar estas probabilidades, podemos emplear la regla empírica como regla general para estimar la normalidad. probabilidades

Según la regla empírica, en cualquier distribución normal, aproximadamente el 68 % de la probabilidad se encuentra dentro de una desviación estándar de la media, el 95 % se encuentra dentro de dos desviaciones estándar y el 99,7 % se encuentra dentro de tres desviaciones estándar. Estas proporciones corresponden a las áreas bajo la curva dentro de las respectivas regiones.

Aplicando la regla empírica a nuestra distribución de puntajes SAT con una media de 1060 y una desviación estándar de 195, encontramos que hay un 68 % de probabilidad de seleccionar aleatoriamente un puntaje entre 865 y 1255, un 95 % de probabilidad de seleccionar un puntaje entre 670 y 1450, y una probabilidad del 99,7 % de seleccionar una puntuación entre 475 y 1645.

Usando geometría y la regla empírica, también podemos calcular probabilidades para otros escenarios. Por ejemplo, la probabilidad de obtener un resultado a más de una desviación estándar de la media es igual a uno menos la probabilidad de obtener un resultado a una desviación estándar de la media. De manera similar, podemos calcular la probabilidad de obtener un valor más de dos desviaciones estándar por debajo de la media encontrando el complemento del área dentro de dos desviaciones estándar de la media.

En resumen, las distribuciones de probabilidad normales siguen una curva en forma de campana y la regla empírica proporciona una aproximación útil para estimar probabilidades dentro de regiones específicas de una distribución normal.

The Normal Distribution
The Normal Distribution
  • 2020.05.18
  • www.youtube.com
Introducing normally-distributed random variables! We learn what they look like and how they behave, then begin computing probabilities using the empirical r...
 

La distribución normal estándar


La distribución normal estándar

Hola a todos, hoy nos sumergiremos en la distribución normal estándar. Esta es esencialmente una distribución normal o curva de campana con una media de cero y una desviación estándar de uno, como se ilustra aquí.

Estamos tratando con una variable aleatoria continua que puede tomar cualquier valor entre infinito negativo e infinito positivo. Sin embargo, la mayoría de la probabilidad se concentra cerca de cero. El pico de la curva está centrado en la media, que es cero, y los puntos de inflexión ocurren en más y menos uno, donde el gráfico pasa de una forma de colina a una forma de valle.

Para referirnos a variables aleatorias que siguen una distribución normal estándar, a menudo usamos la letra "z". La distribución normal estándar es particularmente útil porque cualquier variable aleatoria con una distribución normal (con media mu y desviación estándar sigma) se puede transformar en una distribución normal estándar. Esta transformación se logra restando la media y dividiendo por la desviación estándar: z = (x - mu) / sigma.

Ahora, hablemos de las puntuaciones z. Una puntuación z representa el número de desviaciones estándar por las que un valor x está por encima o por debajo de la media. A veces, las puntuaciones z también se denominan puntuaciones estándar. En la distribución normal estándar, no nos enfocamos en las probabilidades de los valores individuales ya que hay infinitas. En cambio, consideramos las probabilidades de que z caiga dentro de rangos específicos.

Al considerar las probabilidades en la distribución normal estándar, examinamos las áreas debajo del gráfico para el rango deseado. Por ejemplo, veamos la probabilidad de que z esté entre -1 y 0,5. Queremos encontrar el área sombreada debajo del gráfico entre estos dos valores. Recuerda, el área total debajo del gráfico siempre es uno, ya que representa la probabilidad total.

Para describir las probabilidades de variables aleatorias continuas como la normal estándar, comúnmente usamos funciones de distribución acumulativa (CDF). La CDF proporciona la probabilidad de que una variable aleatoria sea menor o igual a un valor específico. En la distribución normal estándar, usamos la notación Phi(z) para la CDF.

Para calcular probabilidades, se recomienda utilizar tecnología como calculadoras o software. Por ejemplo, una calculadora TI tiene la función "normalcdf", Excel puede realizar los cálculos y en R, el comando "pnorm" se usa para calcular la CDF para la distribución normal estándar.

Consideremos un ejemplo. Si queremos encontrar la probabilidad de una puntuación z menor o igual a 0,5, podemos usar la CDF y calcular Phi(0,5), que arroja aproximadamente 0,691. Por tanto, la probabilidad de obtener un z-score menor o igual a 0,5 es del orden del 69,1%.

En general, si queremos calcular la probabilidad de que un puntaje z se encuentre dentro de un rango específico (a a b), restamos la probabilidad de que z sea menor o igual que a de la probabilidad de que z sea menor o igual que b. Simbólicamente, esto se puede escribir como Phi(b) - Phi(a).

Por último, es esencial recordar que la probabilidad de cualquier puntaje z individual es infinitesimal. La probabilidad de que z sea menor o igual a un valor específico (c) es la misma que la probabilidad de que z sea menor que ese valor (c). Además, la probabilidad de que z sea mayor que c es igual a uno menos la probabilidad de que z sea menor o igual que c, ya que estos eventos son complementarios.

Para ilustrar, determinemos la probabilidad de obtener un puntaje z mayor que -1.5. Usando el hecho dos anterior, podemos calcular 1 menos la probabilidad de que z sea menor o igual a -1.5, que es aproximadamente 93.3%. Como se anticipó, esta probabilidad es considerablemente mayor que el 50%, considerando que un puntaje z negativo nos ubica en el extremo izquierdo de la curva de campana, lo que indica que una porción significativa del área se encuentra a la derecha de ese puntaje z.

En resumen, la distribución normal estándar, caracterizada por una media de cero y una desviación estándar de uno, es un concepto fundamental en estadística. Mediante el uso de puntuaciones z, que miden el número de desviaciones estándar de un valor respecto de la media, podemos determinar las probabilidades asociadas con rangos específicos en la distribución. La función de distribución acumulativa (CDF), a menudo denominada Phi(z), se utiliza para calcular estas probabilidades. La tecnología, como calculadoras o software estadístico, se emplea comúnmente para calcular los valores CDF. Recuerde, la distribución normal estándar nos permite estandarizar y comparar valores de cualquier distribución normal transformándolos en puntajes z.

The Standard Normal Distribution
The Standard Normal Distribution
  • 2020.07.27
  • www.youtube.com
The standard normal distribution: what it is, why it matters, and how to use it. Your life is about to get better! If this vid helps you, please help me a ti...
 

Cálculo de probabilidades normales usando R


Cálculo de probabilidades normales usando R

¡Hola a todos! Hoy nos sumergimos en el mundo de la computación de probabilidades en distribuciones normales usando RStudio. Cuando se trata de variables aleatorias normalmente distribuidas, que son continuas, no tiene sentido discutir la probabilidad de obtener un valor individual específico. En cambio, confiamos en la función de distribución acumulativa (CDF). Esta función toma un valor de x y devuelve la probabilidad de obtener un número menor o igual que ese valor de x por azar en la distribución normal.

Para comprender mejor este concepto, echemos un vistazo a una representación visual. En el gráfico, he marcado un valor de x y el área sombreada representa la probabilidad acumulada hasta ese valor de x utilizando la CDF normal. Cuando nos referimos a la distribución normal estándar con una media de 0 y una desviación estándar de 1, a menudo denotamos la variable aleatoria como Z y usamos una Phi mayúscula (Φ) para representar la CDF.

Ahora, hay casos en los que queremos calcular la probabilidad de que una variable dentro de una distribución normal se encuentre dentro de un rango específico, no solo menos de un número. Podemos lograr esto calculando la probabilidad de que sea menor o igual que el número superior y restando la probabilidad de que sea menor o igual que el número inferior. Esto se puede visualizar restando el área sombreada en la parte inferior derecha del área sombreada en la parte inferior izquierda.

Pongamos a prueba nuestro conocimiento realizando algunos cálculos usando diferentes distribuciones normales y probabilidades. Para esto, cambiaremos a RStudio. En R, podemos utilizar la función "Pnorm", que es la función de distribución acumulativa para la distribución normal.

Primero, consideremos una distribución N(5, 9). Queremos encontrar la probabilidad de que X sea menor o igual a 10. Usando "Pnorm" con el valor de x de 10, la media de 5 y la desviación estándar de 3, obtenemos un resultado de aproximadamente 0.9522.

A continuación, determinemos la probabilidad de obtener un valor de x mayor que 10. Dado que obtener un valor de x mayor que 10 es el complemento de obtener un valor de x menor o igual a 10, podemos calcularlo restando la probabilidad de el último de 1. Al restar "Pnorm(10, 5, 3)" de 1, encontramos que la probabilidad es de aproximadamente 0,048.

Ahora, cambiemos nuestro enfoque a una distribución normal con una media de 100 y una varianza de 20. Estamos interesados en la probabilidad de que X se encuentre entre 92 y 95. Comenzamos calculando la probabilidad de que X sea menor o igual a 95. usando "Pnorm(95, 100, sqrt(20))". Luego, restamos la probabilidad de que X sea menor o igual a 92 usando "Pnorm(92, 100, sqrt(20))". El resultado es aproximadamente 0,095.

Por último, trabajemos con la distribución normal estándar y encontremos la probabilidad de que Z esté entre -1,2 y 0,1. Podemos restar directamente "Pnorm(-1.2)" de "Pnorm(0.1)" para obtener el resultado de aproximadamente 0.428.

En conclusión, al aprovechar el poder de la distribución normal y la función de distribución acumulativa, podemos calcular las probabilidades asociadas con diferentes rangos de valores. RStudio nos proporciona las herramientas necesarias, como la función "Pnorm", para realizar estos cálculos de manera eficiente.

Computing Normal Probabilities Using R
Computing Normal Probabilities Using R
  • 2020.05.28
  • www.youtube.com
A quick introduction to the normal cdf function and its implementation in R, complete with several complete examples. Easy! If this vid helps you, please hel...
 

Cálculos normales inversos


Cálculos normales inversos

¡Hola a todos! Hoy profundizaremos en el fascinante mundo de los cálculos normales inversos. Comencemos refrescando nuestra comprensión de cómo calculamos las probabilidades en la distribución normal estándar usando la función de distribución acumulativa (CDF), denotada como Φ(z). El CDF toma un puntaje z como entrada y devuelve la probabilidad de que un puntaje z elegido al azar sea menor o igual a ese valor.

Para ilustrar este concepto, considere la gráfica donde se dibuja Φ(0.5). Para calcular Φ(0.5), dibujamos la curva de campana normal estándar y ubicamos z = 0.5 ligeramente a la derecha de la media. Luego sombreamos toda el área a la izquierda de ese puntaje z. Φ(0.5) representa el área de la región sombreada. Recuerda que la probabilidad total bajo la curva de campana siempre es 1, por lo que podemos interpretar el área sombreada como un porcentaje del área total.

Ahora, exploremos la inversa de la CDF normal, denotada como Φ^(-1) o "phi inversa". Este proceso invierte el cálculo anterior. En lugar de alimentarlo con un puntaje z y obtener una probabilidad, ingresamos una probabilidad y obtenemos el puntaje z correspondiente. Por ejemplo, Φ^(-1)(0,5) es 0 porque Φ(0) es 0,5. La mitad de la probabilidad se encuentra a la izquierda de z = 0 en la distribución normal estándar. De manera similar, Φ^(-1)(0.6915) es 0.5 porque Φ(0.5) es 0.6915 y Φ^(-1)(0.1587) es -1 porque Φ(-1) es 0.1587. Básicamente estamos invirtiendo las entradas y salidas de estas dos funciones.

Para ilustrar mejor este concepto, consideremos un ejemplo. Supongamos que queremos encontrar el puntaje z que captura el percentil 90 en una distribución normal estándar. Esta puntuación z representa un resultado superior al 90% de los resultados si extraemos repetidamente de esta distribución. Para determinar esto, usamos Φ^(-1) y calculamos Φ^(-1)(0,90), lo que arroja aproximadamente 1,28. Por lo tanto, 1,28 es el puntaje z correspondiente al percentil 90 en la distribución normal estándar.

Ahora, armados con el puntaje z para una probabilidad o percentil dado, podemos determinar fácilmente el valor correspondiente en cualquier distribución normal. Considere un ejemplo donde los puntajes en una prueba estandarizada se distribuyen normalmente con una media de 1060 y una desviación estándar de 195. Para determinar el puntaje requerido para superar el 95% de los puntajes, primero encontramos el percentil 95. Usando Φ^(-1)(0.95) o qnorm(0.95) en R, obtenemos aproximadamente 1.64 como puntaje z. Al interpretar este resultado, un estudiante debe obtener una puntuación de 1,64 desviaciones estándar por encima de la media para tener un 95 % de posibilidades de superar una puntuación seleccionada al azar.

Para calcular la puntuación real, usamos la fórmula x = μ + zσ, donde x representa la puntuación necesaria, μ es la media (1060), z es la puntuación z (1,64) y σ es la desviación estándar (195) . Al conectar estos valores, encontramos que el estudiante necesita obtener una puntuación de aproximadamente 1379.8. Por lo tanto, una puntuación de alrededor de 1380 colocaría al estudiante en el percentil 95 y proporcionaría un 95 % de posibilidades de superar una puntuación seleccionada al azar en la prueba.

Es importante tener en cuenta que los valores obtenidos de las distribuciones normal e inversa normal suelen ser aproximaciones, ya que pueden ser irracionales. Si bien es posible realizar cálculos normales inversos usando tablas, es más común y conveniente usar tecnología para estos cálculos. En R, por ejemplo, el comando para la normal inversa es qnorm. Para encontrar el inverso de una probabilidad, ingresamos qnorm seguido de la probabilidad deseada. Por ejemplo, para calcular el inverso de 0.6915 usamos qnorm(0.6915) y obtenemos aproximadamente 0.5. De manera similar, para el inverso de 0,1587, usamos qnorm(0,1587) y obtenemos aproximadamente -1.

El uso de tecnología para estos cálculos es preferible en el siglo XXI, ya que brinda resultados precisos y ahorra tiempo en comparación con el uso de tablas manuales. Al aprovechar herramientas como R, podemos realizar cálculos normales inversos sin esfuerzo al proporcionar la probabilidad y recibir el puntaje z correspondiente.

En resumen, los cálculos de normal inversa nos permiten determinar el puntaje z correspondiente a una probabilidad o percentil dado en una distribución normal. Podemos usar la función normal inversa, como Φ^(-1) o qnorm en R, para obtener estos valores. Esta información nos ayuda a tomar decisiones informadas y realizar varios análisis estadísticos.

Inverse Normal Calculations
Inverse Normal Calculations
  • 2020.07.30
  • www.youtube.com
Let's learn about the inverse normal cdf! Lots of examples and pictures, as usual.
 

Cálculos normales inversos utilizando R


Cálculos normales inversos utilizando R

Hoy usaremos R para realizar algunos cálculos normales inversos. Tenemos tres problemas que resolver.

Problema 1: encuentre el percentil 98 de la distribución normal estándar. En otras palabras, queremos determinar el puntaje z que se encuentra por encima del 98% de la probabilidad en la distribución normal estándar. En R, podemos usar el comando qnorm. Dado que estamos tratando con la distribución normal estándar (media = 0, desviación estándar = 1), podemos ingresar directamente el percentil como argumento. Por lo tanto, calculamos qnorm(0,98) y obtenemos una puntuación z de aproximadamente 2,05.

Problema 2: encuentre el valor de x que captura el 40% del área bajo una distribución normal con media 12 y varianza 3. Podemos comenzar visualizando la curva de campana con los parámetros dados. Queremos encontrar un valor de x que corresponda a un área del 40% a la izquierda de él. Usando qnorm, ingresamos el área deseada como un decimal, que es 0.40. Sin embargo, dado que esta es una distribución normal no estándar, también debemos especificar la media y la desviación estándar. Por lo tanto, calculamos qnorm(0.40, mean = 12, sd = sqrt(3)) y obtenemos un valor de x aproximadamente igual a 11.56.

Problema 3: Considere el consumo anual per cápita de naranjas en los Estados Unidos, que tiene una distribución aproximadamente normal con una media de 9.1 libras y una desviación estándar de 2.7 libras. Si un estadounidense come menos del 85 % de sus pares, queremos determinar cuánto consume. Aquí, estamos interesados en el área a la derecha del percentil dado (85%). Dado que qnorm proporciona valores con áreas a la izquierda, debemos restar el percentil de 1 para obtener el área a la derecha, que es 0,15. Calculamos qnorm(0.15, mean = 9.1, sd = 2.7) para encontrar el valor de consumo correspondiente. El resultado es aproximadamente 6,30 libras de naranjas por año.

Mediante el uso de la función qnorm en R, podemos realizar eficientemente estos cálculos normales inversos y obtener los resultados deseados para varios problemas estadísticos.

El uso de la función qnorm en R nos permite realizar cálculos normales inversos de manera eficiente, brindándonos los puntajes z necesarios o valores que corresponden a percentiles o áreas específicas bajo una distribución normal.

En el Problema 1, queríamos encontrar el percentil 98 de la distribución normal estándar. Usando qnorm(0.98), obtuvimos una puntuación z de aproximadamente 2.05. Esto significa que el valor correspondiente al percentil 98 en la distribución normal estándar está 2,05 desviaciones estándar por encima de la media.

En el Problema 2, buscamos encontrar el valor de x que captura el 40 % del área bajo una distribución normal con media 12 y varianza 3. Después de especificar la media y la desviación estándar en la función qnorm como qnorm(0.40, mean = 12, sd = sqrt(3)), obtuvimos un valor de x de aproximadamente 11,56. Esto indica que el valor de x, que corresponde a capturar el 40% del área a su izquierda en la distribución normal dada, es aproximadamente 11,56.

En el Problema 3, consideramos el consumo anual per cápita de naranjas en los Estados Unidos, el cual sigue una distribución normal con una media de 9.1 libras y una desviación estándar de 2.7 libras. Queríamos determinar la cantidad de consumo para un individuo que come menos del 85% de sus compañeros. Al calcular qnorm(0.15, mean = 9.1, sd = 2.7), encontramos que el nivel de consumo debe ser de alrededor de 6.30 libras por año para que una persona consuma menos del 85 % de sus pares.

En general, la función qnorm en R simplifica el proceso de realizar cálculos normales inversos al brindarnos las puntuaciones z o valores necesarios en función de percentiles o áreas específicas. Esto nos permite analizar y tomar decisiones informadas basadas en las características de las distribuciones normales.

Inverse Normal Calculations Using R
Inverse Normal Calculations Using R
  • 2020.08.02
  • www.youtube.com
It's easy to compute inverse normal values using R. Let's learn the qnorm() command! If this vid helps you, please help me a tiny bit by mashing that 'like' ...
 

Distribuciones de muestreo


Distribuciones de muestreo

Hola a todos, hoy discutiremos el concepto de distribuciones muestrales de estadísticas. En la inferencia estadística, nuestro objetivo es utilizar estadísticas de muestra para estimar los parámetros de la población. Sin embargo, los estadísticos muestrales tienden a variar de una muestra a otra, por lo que si tomamos muestras repetidamente, obtendremos diferentes valores para el mismo estadístico.

Ilustremos esto con un ejemplo. Imagine que tenemos una bolsa que contiene fichas numeradas, y un estadístico de la estación de tablero extrae al azar 5 fichas, obteniendo los números 24, 11, 10, 14 y 16. La media de la muestra, indicada como barra x, se calcula en 15. Ahora , si repetimos este proceso varias veces, probablemente obtendremos diferentes valores para la barra x cada vez. Por ejemplo, en muestras posteriores, podríamos obtener 17,8, 18,8 o 21,6 como media muestral. Por lo tanto, la barra x estadística muestral es el resultado de un proceso aleatorio y puede considerarse una variable aleatoria. Tiene su propia distribución de probabilidad, a la que nos referimos como la distribución muestral de la estadística.

Ahora, trabajemos con un ejemplo concreto. Supongamos que tenemos una bolsa con tres fichas rojas y seis fichas azules. Si sacamos tres fichas al azar con reemplazo, queremos encontrar la distribución muestral de x, que representa el número de fichas rojas extraídas. Hay cuatro valores posibles para x: 0, 1, 2 o 3. Para determinar las probabilidades asociadas con cada valor, tratamos cada sorteo individual como una prueba de Bernoulli, donde el rojo se considera un éxito y el azul un fracaso. Como estamos realizando tres sorteos idénticos, cada uno con una probabilidad de un tercio, tenemos una distribución binomial con n = 3 y p = 1/3. Al calcular las probabilidades usando la fórmula de distribución binomial, encontramos que las probabilidades para x = 0, 1, 2 y 3 son 0.296, 0.444, 0.296 y 0.064, respectivamente. Estas probabilidades definen la distribución muestral de x.

La media es la estadística más utilizada para la inferencia estadística, por lo que a menudo encontrará la frase "distribución muestral de la media muestral". Representa la distribución de probabilidad de todos los valores posibles que puede tomar la media muestral al extraer muestras del mismo tamaño de la misma población. Por ejemplo, volvamos a considerar el ejemplo de la bolsa, pero esta vez, las fichas están numeradas del 1 al 35. Queremos describir la distribución muestral de la media muestral, denotada como barra x, cuando tomamos muestras de tamaño n = 5 sin reemplazo. Repitiendo el proceso de muestreo mil veces y calculando la media de la muestra cada vez, obtenemos una lista de mil números que van del 15 al 165. La mayoría de estas medias de la muestra estarán dentro del rango medio, y al construir un histograma, observamos que la distribución de muestreo sigue aproximadamente una forma de curva de campana. Este patrón de curva de campana no es una coincidencia, como exploraremos en una discusión futura.

La distribución muestral de la media muestral tiene un centro y una dispersión predecibles, lo que permite varias inferencias estadísticas. En particular, si tomamos muestras de tamaño n de una gran población con una media de mu y una desviación estándar de sigma, la media de las medias muestrales (barra x) será igual a la media poblacional (mu). Además, la desviación estándar de las medias muestrales será igual a la desviación estándar de la población (sigma) dividida por la raíz cuadrada de n. Estas relaciones sugieren que la media de la muestra proporciona una estimación de la media de la población y es menos variable que las observaciones individuales dentro de la población.

Para ilustrar esto, consideremos un ejemplo en el que la puntuación media en una prueba estandarizada es 1060 y la desviación estándar es 195. Supongamos que seleccionamos al azar 100 estudiantes de la población. En este caso, suponemos que la población es lo suficientemente grande como para que el muestreo sin reemplazo sea aceptable. La distribución muestral de la media muestral, indicada como barra x, tendrá un centro de 1060 y una desviación estándar de 19,5.

Para aclarar, si tuviéramos que recolectar una muestra de 100 estudiantes y calcular sus puntajes promedio en las pruebas, repitiendo este proceso varias veces, encontraríamos que, en promedio, la media de la muestra sería 1060. La dispersión de las medias de la muestra, como se indica por la desviación estándar de 19,5, sería considerablemente menor que la desviación estándar de las puntuaciones individuales dentro de la población.

Comprender las propiedades de la distribución muestral, como su centro y dispersión, nos permite realizar inferencias estadísticas significativas. Al aprovechar la distribución de muestreo de la media de la muestra, podemos estimar los parámetros de la población y sacar conclusiones sobre la población en función de las estadísticas de la muestra observada.

En general, las distribuciones muestrales de las estadísticas desempeñan un papel crucial en la inferencia estadística al proporcionar información sobre la variabilidad de las estadísticas muestrales y su relación con los parámetros de la población.

Sampling Distributions
Sampling Distributions
  • 2020.08.01
  • www.youtube.com
All statistical inference is based on the idea of the sampling distribution of a statistic, the distribution of all possible values of that statistic in all ...
 

¿Qué es el teorema del límite central?


¿Qué es el teorema del límite central?

Hoy, estamos discutiendo el Teorema del Límite Central (CLT), que es ampliamente considerado como uno de los teoremas más importantes en estadística. El CLT describe la forma de la distribución muestral de la media muestral (barra x) y requiere una sólida comprensión de las distribuciones muestrales.

Para comprender el CLT, se recomienda familiarizarse con las distribuciones de muestreo. Puede ver un video sobre distribuciones de muestreo, que he vinculado anteriormente para su conveniencia.

Ahora, profundicemos en el CLT. Supongamos que tomamos muestras aleatorias simples de tamaño 'n' de una población con media (μ) y desviación estándar (σ). Es posible que no sepamos mucho acerca de la forma de la población, pero si 'n' es lo suficientemente grande (generalmente alrededor de 30), la distribución muestral de la media muestral se aproximará a una distribución normal. Si la población en sí tiene una distribución normal, entonces la distribución de muestreo de la barra x será exactamente normal, independientemente de 'n'. Además, la media de la barra x siempre será μ, y la desviación estándar de la barra x será σ dividida por la raíz cuadrada de 'n'.

En esencia, el teorema del límite central establece que, independientemente de la población muestreada, cuando el tamaño de la muestra es lo suficientemente grande, la distribución de la barra x será aproximadamente normal con una media de μ y una desviación estándar de σ dividida por la raíz cuadrada. de 'n'. Mentalmente, imagina tomar numerosas muestras del mismo tamaño de la población, calculando la media muestral para cada muestra. Si bien las medias de las muestras individuales pueden variar ligeramente, su promedio será igual a la media de la población, y la dispersión de estas medias de la muestra alrededor de la media tendrá aproximadamente una forma de campana, con una desviación estándar relacionada pero menor que la desviación estándar de la población.

Para ilustrar este concepto, consideremos un ejemplo. Tenemos una línea de ayuda técnica donde la duración de las llamadas sigue una distribución normal con una media (μ) de 2 minutos y una desviación estándar (σ) de 3 minutos. Supongamos que queremos encontrar la probabilidad de que una muestra seleccionada al azar de 40 llamadas tenga una duración media de menos de 2,5 minutos. Aunque no conocemos la distribución exacta de la duración de las llamadas individuales, podemos utilizar el teorema del límite central ya que estamos examinando la media muestral de 40 llamadas. La media de la muestra (barra x) tendrá una distribución aproximadamente normal con una media de 2 y una desviación estándar de 3 dividida por la raíz cuadrada de 40 (σ/sqrt(n)).

Para calcular la probabilidad, determinamos el puntaje z para x-barra = 2.5 en la distribución con media 2 y desviación estándar 3/raíz cuadrada (40). Al calcular el puntaje z como (2.5 - 2) / (3 / sqrt (40)), encontramos un valor de 1.05. Luego, podemos usar una función de distribución acumulativa normal (CDF) para encontrar la probabilidad de que el puntaje z sea menor que 1.05, lo que arroja aproximadamente un 85.3 %. Esto significa que hay un 85,3 % de posibilidades de obtener una media de muestra de menos de 2,5 minutos al muestrear 40 llamadas.

En otra demostración, imaginemos un generador de números aleatorios que produce números enteros aleatorios entre 1 y 12 con la misma probabilidad. Este escenario es análogo a seleccionar a alguien al azar y determinar su mes de nacimiento. Si tomamos muestras aleatorias simples de tamaño 2 de este generador, lo ejecutamos varias veces y calculamos la media de la muestra, observamos un histograma con una forma similar a una pirámide. Los resultados tienden a agruparse en torno a 6,5, lo que indica una mayor probabilidad de obtener medias muestrales cercanas a 6,5 en comparación con valores más cercanos a 1 o 12.

Al aumentar el tamaño de la muestra a 10, observamos un histograma que comienza a parecerse a una distribución en forma de campana y la dispersión de las medias muestrales disminuye. La mayoría de las medias muestrales ahora se encuentran entre 4 y 9.

Si aumentamos aún más el tamaño de la muestra a 100 y repetimos el proceso, el histograma adquiere aún más forma de campana, con la mayoría de las medias de la muestra concentradas entre 6 y 7. La desviación estándar de las medias de la muestra continúa disminuyendo.

Finalmente, cuando tomamos muestras de tamaño 1000, el histograma sigue una curva de distribución normal casi perfecta. Las medias de la muestra están estrechamente agrupadas en torno a la media de la población, y la mayoría se encuentra entre 6,25 y 6,75. La desviación estándar de las medias de la muestra continúa reduciéndose a medida que aumenta el tamaño de la muestra.

En resumen, a medida que aumenta el tamaño de la muestra (n), la media de la muestra (barra x) se convierte en un estimador más confiable de la media de la población (μ). La variabilidad en la media de la muestra disminuye, lo que conduce a una distribución muestral más estrecha y con forma de campana.

Ahora, consideremos un ejemplo que involucre un dispensador de agua destilada. El dispensador llena galones de agua y la cantidad que dispensa sigue una distribución normal con una media de 1,03 galones y una desviación estándar de 0,02 galones. Queremos determinar la probabilidad de que un solo "galón" dispensado sea en realidad menos de 1 galón.

Para encontrar esta probabilidad, calculamos el puntaje z para x = 1 en la distribución normal con media 1.03 y desviación estándar 0.02. La puntuación z se calcula como (1 - 1,03) / 0,02, lo que da como resultado -1,5. Usando la función de distribución acumulada normal (CDF), encontramos que la probabilidad de obtener un valor menor a 1 galón es de aproximadamente 6.68%.

Ahora, consideremos la probabilidad de que el promedio de 10 galones sea menos de 1 galón por galón. De acuerdo con el Teorema del Límite Central, cuando el tamaño de la muestra (n) es lo suficientemente grande, la distribución muestral de la media muestral se vuelve normal, independientemente de la distribución de la población. En este caso, la distribución muestral de x-bar tiene una media de 1,03 (igual que la media de la población) y una desviación estándar de 0,02/sqrt(10).

Para encontrar la probabilidad de obtener una muestra media inferior a 1 galón, calculamos la puntuación z como (1 - 1,03) / (0,02/sqrt(10)), que es igual a -4,74. Usando la función de distribución acumulada normal (CDF), encontramos que la probabilidad de obtener una media de muestra menor a 1 galón es de aproximadamente 0.0001%.

En conclusión, si bien es algo poco probable (alrededor del 7 %) que un solo galón se llene de manera insuficiente, sería extremadamente inusual que la media de 10 galones fuera menos de 1 galón por galón.

Por último, con respecto al tamaño de la muestra, el teorema del límite central sugiere que la distribución muestral de la barra x se aproxima a una distribución normal para tamaños de muestra grandes. Sin embargo, lo que constituye un tamaño de muestra "grande" es subjetivo y depende de la asimetría de la distribución de la población y la presencia de valores atípicos. En general, cuando se muestrea una distribución bastante simétrica sin valores atípicos extremos, un tamaño de muestra más pequeño puede ser suficiente para que se aplique el teorema del límite central.

What is the central limit theorem?
What is the central limit theorem?
  • 2020.08.04
  • www.youtube.com
This is it! The most important theorem is the whole wide universe! A large proportion of statistical inference made possible by this one result. If this vid ...
 

Cálculo de probabilidades usando el teorema del límite central: ejemplos


Cálculo de probabilidades usando el teorema del límite central: ejemplos

Hola a todos, en la sesión de hoy estaremos trabajando en algunos problemas relacionados con el cálculo de probabilidades usando el Teorema del Límite Central. Tenemos dos problemas que resolver. ¡Empecemos!

Problema 1: Los pesos de las bolsas de cierta marca de dulces siguen una distribución normal con una media de 45 gramos y una desviación estándar de 1,5 gramos. Necesitamos encontrar la probabilidad de que una bolsa seleccionada al azar contenga menos de 44 gramos de dulces.

Para resolver esto, usaremos la distribución normal y calcularemos el puntaje z. La puntuación z se obtiene restando la media (45) del valor (44) y dividiéndola por la desviación estándar (1,5). Esto nos da un puntaje z de -0.67.

A continuación, utilizamos la función de distribución acumulada normal (CDF) para encontrar la probabilidad de obtener un valor inferior a -0,67 en la distribución normal estándar. La probabilidad resulta ser de aproximadamente 0,252, lo que significa que hay un 25,2 % de posibilidades de que una bolsa seleccionada al azar contenga menos de 44 gramos de dulces.

Problema 2: Consideraremos la probabilidad de que cinco bolsas seleccionadas al azar tengan un peso promedio de menos de 44 gramos de dulces. Para este problema, necesitamos aplicar el Teorema del Límite Central.

De acuerdo con el teorema del límite central, cuando el tamaño de la muestra es lo suficientemente grande (generalmente 30 o más), la distribución muestral de la media muestral se vuelve aproximadamente normal, independientemente de la distribución de la población. En este caso, la media de la distribución muestral (barra x) será la misma que la media de la población (45), y la desviación estándar será la desviación estándar de la población (1,5) dividida por la raíz cuadrada del tamaño de la muestra ( √5).

Para encontrar la probabilidad, calculamos la puntuación z restando la media (45) del valor deseado (44) y dividiéndola por la desviación estándar (√(1.5^2/5)). Esto nos da un puntaje z de -1.49.

Utilizando la CDF normal, encontramos que la probabilidad de obtener una media muestral inferior a 44 gramos es de aproximadamente 0,068 o 6,8 %. Por lo tanto, hay un 6,8% de probabilidad de que cinco bolsas seleccionadas al azar tengan un peso promedio de menos de 44 gramos de dulces.

Por último, consideramos la probabilidad de que 25 bolsas seleccionadas al azar tengan un peso promedio de menos de 44 gramos de dulces. Dado que el tamaño de la muestra es mayor (25), aún podemos aplicar el teorema del límite central.

Usando el mismo procedimiento que antes, calculamos el puntaje z para una media de muestra de 44 gramos con una desviación estándar de 1.5/√25. Esto nos da un puntaje z de -3.33.

Aplicando la CDF normal, encontramos que la probabilidad de obtener una media muestral inferior a 44 gramos es de aproximadamente 0,004 o 0,4%. Por lo tanto, solo hay un 0,4% de probabilidad de que 25 bolsas seleccionadas al azar tengan un peso promedio de menos de 44 gramos de dulces.

En conclusión, el teorema del límite central brinda una aproximación confiable para estas probabilidades, incluso con un tamaño de muestra relativamente pequeño de 7. Las probabilidades calculadas son notablemente cercanas a los valores exactos obtenidos de la distribución de probabilidad original.

Calculating Probabilities Using the Central Limit Theorem: Examples
Calculating Probabilities Using the Central Limit Theorem: Examples
  • 2020.10.02
  • www.youtube.com
Let's compute! The Central Limit Theorem is incredibly useful when computing probabilities for sample means and sums. We do an example of each. If this vid h...
 

Introducción a los intervalos de confianza


Introducción a los intervalos de confianza

Hola a todos, hoy nos sumergimos en el tema de los intervalos de confianza. Mientras discutimos esto, es crucial tener en cuenta la distinción entre un parámetro y una estadística. Repasemos rápidamente este concepto.

Un parámetro es un número que describe una población, como el salario inicial promedio de todos los científicos de datos en los Estados Unidos. Por otro lado, una estadística es un número que describe una muestra, como el salario inicial promedio de 10 científicos de datos seleccionados al azar en los Estados Unidos.

Por lo general, no tenemos acceso directo para observar los parámetros. A menudo, no es práctico recopilar información de una población completa, por lo que confiamos en datos de muestra, que proporcionan estadísticas. La inferencia estadística es el proceso de razonamiento de una estadística a un parámetro.

Una de las formas más fundamentales y significativas de inferencia estadística es el intervalo de confianza. Para hacer todo esto más concreto, consideremos un ejemplo. Supongamos que tomamos una muestra aleatoria de 10 científicos de datos en los Estados Unidos y encontramos que su salario inicial promedio es de $97,000. Este valor representa una estadística ya que se refiere solo a los científicos de datos de nuestra muestra. Sin embargo, queremos hacer una inferencia sobre el salario inicial medio de todos los científicos de datos en los Estados Unidos, que es el parámetro que nos interesa estimar.

Para estimar el parámetro μ con la barra x estadística (media de la muestra), nuestra mejor suposición es que el salario inicial promedio de todos los científicos de datos en los Estados Unidos es de $97,000. Sin embargo, es importante reconocer que es muy poco probable que esta estimación sea exactamente correcta. Es poco probable que el parámetro μ sea exactamente $97 000; podría ser ligeramente superior o inferior, o incluso significativamente.

Dado que nuestra estimación no es exacta, es apropiado proporcionar una estimación de intervalo, generalmente de la forma x-barra más o menos algún margen de error. La pregunta crítica es cómo determinamos este margen de error. Debemos tener en cuenta que, incluso con un gran margen de error, siempre existe la probabilidad de equivocarse.

Por ejemplo, considere un escenario en el que seleccionamos una muestra con 10 científicos de datos mal pagados, mientras que el parámetro real (el salario inicial real de los científicos de datos en los Estados Unidos) es de $150 000. Nuestra media muestral sigue siendo de $97 000. Por lo tanto, lo mejor que podemos esperar es construir un intervalo de confianza que probablemente capture el parámetro verdadero con una alta probabilidad. Esto significa que el intervalo debe incluir el parámetro verdadero un porcentaje significativo del tiempo.

Normalmente, se utiliza un nivel de confianza del 95 % como estándar, aunque se pueden elegir otros niveles como el 90 % o el 99 % según la aplicación. En cualquier caso, la notación utilizada para el nivel de confianza es una C mayúscula. Para expresar esto formalmente como un enunciado de probabilidad, nuestro objetivo es encontrar un margen de error (e) tal que la probabilidad de x-bar y μ esté dentro de e de el uno al otro es C.

Hagamos nuestro ejemplo más específico. Suponga que se sabe que los salarios iniciales de los científicos de datos siguen una distribución normal con una desviación estándar de la población de $8,000. Queremos encontrar un margen de error (e) que nos permita estimar μ, el salario inicial medio de todos los científicos de datos en los Estados Unidos, con un 95 % de confianza.

Para lograr esto, usaremos las propiedades de la distribución normal estándar. Si tomamos una variable aleatoria x que sigue una distribución normal, la media muestral (barra x) también se distribuirá normalmente. La media de la distribución media de la muestra es la misma que la media de la distribución de la población (μ), pero la desviación estándar se reduce. En nuestro ejemplo, la desviación estándar de la media de la muestra es σ/√n, donde σ es la desviación estándar de la población y n es el tamaño de la muestra.

Con esta información, podemos reescribir nuestro enunciado de probabilidad de la siguiente manera: la probabilidad de que la barra x se encuentre entre μ - e y μ + e es igual a C. Ahora, podemos representar esto en términos de puntajes z, que miden el número de desviaciones estándar lejos de la media. Al estandarizar nuestro intervalo, podemos utilizar la distribución normal estándar (distribución Z) para determinar los valores apropiados.

Para un nivel de confianza C dado, necesitamos encontrar el puntaje z (estrella z) tal que el área entre la estrella z y la estrella z debajo de la curva normal estándar sea igual a C. Los valores comunes para C incluyen 0.95, que corresponde a una estrella z de 1.960. Una vez que tenemos z-star, podemos calcular el margen de error multiplicándolo por σ/√n.

Volviendo a nuestro ejemplo, donde tenemos un tamaño de muestra de n = 10, una media de muestra de $97 000 y una desviación estándar de la población de $8 000, podemos construir un intervalo de confianza del 95 % para μ. Al sustituir estos valores en la forma general del intervalo de confianza, encontramos que la estimación del intervalo para μ es $97 000 ± $1 958.

En resumen, esperamos que el salario inicial promedio de todos los científicos de datos en los Estados Unidos caiga entre $ 92,042 y $ 101,958, con una confianza estimada del 95%. Esto significa que si tuviéramos que repetir este proceso de muestreo y construir intervalos de confianza utilizando datos de muestra varias veces, esperaríamos que nuestros intervalos capturaran el parámetro verdadero (μ) aproximadamente el 95 % de las veces.

Introducing Confidence Intervals
Introducing Confidence Intervals
  • 2020.07.30
  • www.youtube.com
Let's talk about confidence intervals. Here we're attempting to estimate a population mean when the population standard deviation is known. Cool stuff! If th...
 

Intervalos de confianza para la media - Ejemplo


Intervalos de confianza para la media - Ejemplo

Hola a todos, hoy discutiremos la construcción de intervalos de confianza para una media poblacional cuando se conoce la desviación estándar de la población. Además, exploraremos los factores que pueden afectar el tamaño del margen de error utilizando un ejemplo relacionado con una báscula de baño doméstica.

Al usar una báscula de baño, es razonable suponer que las lecturas se distribuirán normalmente alrededor del peso real de la persona que se está pesando. Sin embargo, no se espera que estas lecturas sean perfectamente precisas y pueden variar ligeramente hacia arriba o hacia abajo. En este ejemplo, supongamos que tenemos acceso a información sobre la desviación estándar de la población de la balanza, que es de 1,2 libras.

Nuestro principal interés radica en construir un intervalo de confianza para el peso real de la persona que se está pesando, que denotaremos como μ. Para lograr esto, pesaremos repetidamente a una persona en la báscula, calcularemos la media muestral de estos pesajes y usaremos la fórmula μ = x-barra ± z-estrella * σ / √n. Aquí, la barra x representa la media de la muestra, n es el tamaño de la muestra, σ es la desviación estándar de la población y la estrella z es el valor z crítico correspondiente al nivel de confianza deseado (C).

Para hacer nuestro ejemplo más específico, digamos que pesamos a un estadístico en la balanza cinco veces y obtenemos un peso promedio de 153.2 libras. Esto sirve como nuestra media muestral. Ahora, queremos construir un intervalo de confianza del 90 % para el peso real del estadístico, suponiendo una desviación estándar de 1,2 libras para la báscula. Al sustituir estos valores en la fórmula, encontramos que la estimación del intervalo es 153,2 ± 0,88 libras.

Dado que elegimos un nivel de confianza del 90 %, podemos esperar que este intervalo capture el verdadero peso del estadístico en aproximadamente el 90 % de los casos.

Ahora, profundicemos en la estructura del margen de error. El margen de error sigue la fórmula z-star * σ / √n, donde hay tres componentes clave: el valor crítico z-star (relacionado con el nivel de confianza), la desviación estándar de la población σ (que refleja la dispersión en la población) , y el tamaño de la muestra n.

Al modificar cualquiera de estos tres componentes, podemos predeciblemente impactar el tamaño del margen de error. Si aumentamos el nivel de confianza, el margen de error también aumentará ya que el valor de la estrella z correspondiente será mayor. De manera similar, aumentar la desviación estándar de la población σ dará como resultado un mayor margen de error ya que hay más variabilidad en los datos, lo que hace que la media de la muestra sea menos confiable. Por otro lado, aumentar el tamaño de la muestra n disminuirá el margen de error ya que la media de la muestra se convierte en un predictor más preciso de la media de la población.

Para ilustrar estos efectos, revisemos nuestro ejemplo de intervalo de confianza del 90 % con una desviación estándar de 1,2 libras y un tamaño de muestra de 5. Si aumentamos el nivel de confianza al 95 %, el valor de la estrella z se convierte en 1,960, lo que da como resultado un margen mayor de error de 1.05 libras. Si volvemos a un nivel de confianza del 90% pero aumentamos la desviación estándar a 1,5 libras, el margen de error se expande a 1,1 libras. Finalmente, si mantenemos la desviación estándar en 1,2 libras pero duplicamos el tamaño de la muestra a 10, el margen de error se reduce a 0,62 libras, lo que indica un intervalo de confianza más estrecho.

Es importante tener en cuenta que si bien cambiar el nivel de confianza y el tamaño de la muestra son ajustes prácticos, la modificación de la desviación estándar suele estar fuera de nuestro control, ya que refleja la variabilidad inherente de la población.

En conclusión, los intervalos de confianza proporcionan un rango de valores plausibles para el parámetro poblacional de interés. El margen de error, influenciado por el nivel de confianza, la desviación estándar de la población y el tamaño de la muestra, nos ayuda a comprender la precisión y confiabilidad de nuestras estimaciones. Aumentar el nivel de confianza amplía el intervalo para proporcionar un mayor nivel de confianza en la captura del parámetro real. Una desviación estándar de población más grande da como resultado un intervalo más amplio debido a una mayor variabilidad en los datos. Por el contrario, aumentar el tamaño de la muestra reduce el intervalo, ya que proporciona más información y mejora la precisión de la estimación.

En el ejemplo que analizamos, se pueden realizar dos cambios realistas: ajustar el nivel de confianza y cambiar el tamaño de la muestra. Estos cambios nos permiten controlar el nivel de certeza y la cantidad de datos utilizados para la estimación. Sin embargo, la desviación estándar de la escala no está bajo nuestro control, por lo que es menos realista modificarla.

Comprender los factores que influyen en el margen de error y los intervalos de confianza es fundamental para interpretar los resultados estadísticos. Nos permite tomar decisiones informadas y sacar conclusiones significativas basadas en la precisión y confiabilidad de nuestras estimaciones.

Confidence Intervals for the Mean - Example
Confidence Intervals for the Mean - Example
  • 2020.07.31
  • www.youtube.com
Let's construct a confidence interval for a population mean! We'll also talk about the structure of the margin of error, and what goes into making it large o...
Razón de la queja: