Tutoriales de programación - página 15

 

Intervalos de confianza y el teorema del límite central


Intervalos de confianza y el teorema del límite central

Hola a todos, hoy aplicaremos el Teorema del Límite Central y construiremos intervalos de confianza para la media de la población. La fórmula para el intervalo de confianza para la media de la población, mu, se basa en el supuesto de que la población de la que se toma la muestra sigue una distribución perfectamente normal con media mu y varianza sigma al cuadrado. Sin embargo, en muchos casos, esta suposición no es razonable. Por ejemplo, al determinar la duración promedio de las llamadas de un banco telefónico, es poco probable que la distribución de la duración de las llamadas sea normal. Es más probable que tenga un histograma con una distribución sesgada, en lugar de una curva de campana.

No obstante, todavía podemos construir un intervalo de confianza para la media de la población, mu, utilizando el teorema del límite central. Este teorema establece que siempre que el tamaño de la muestra, n, sea lo suficientemente grande (normalmente n ≥ 30), la distribución muestral de la media muestral tendrá una distribución aproximadamente normal, independientemente de la forma de la distribución de la población. Para visualizar esto, imagine tomar repetidamente muestras de tamaño n, calcular la media de la muestra (barra x) cada vez y crear un histograma de esas medias de la muestra. De acuerdo con el teorema del límite central, ese histograma exhibirá una curva en forma de campana centrada alrededor de la media de la población, con una dispersión medida por la varianza de la población dividida por el tamaño de la muestra.

Es importante señalar que esta aproximación mejora a medida que aumenta el tamaño de la muestra, n. Analicemos un par de ejemplos para ilustrar este concepto. Supongamos que la desviación estándar de las llamadas a la banca telefónica es sigma = 1 minuto, y estamos obteniendo muestras de tamaño 81. La distribución de medias muestrales (x barra) será aproximadamente normal, con una media igual a la media poblacional y una media estándar desviación de sigma dividida por la raíz cuadrada de n (1 / √81 ≈ 0,11 en este caso).

Con esta información, podemos calcular intervalos de confianza, similares a cuando se sabe que la distribución de la población es normal. Sin embargo, debemos recordar que estos intervalos de confianza son solo aproximados. Por ejemplo, si tenemos una muestra de tamaño 81 y encontramos una media muestral de 1,1 minutos, podemos construir un intervalo de confianza del 95 % para la media poblacional usando la fórmula:

mu ≈ x barra ± z estrella * sigma / √n

Introduciendo los valores (x barra = 1,1, sigma = 1,0, n = 81) y utilizando el valor crítico de z (z estrella) correspondiente al 95 % de confianza (1,960), encontramos que la media de la población (mu) es aproximadamente 1,1 ± 0,22 minutos con un 95 % de confianza.

Consideremos otro ejemplo. Una gran corporación emplea a miles de empleados en tiendas minoristas en todo el país. En una muestra de tamaño 35, la cantidad media de horas trabajadas por semana fue de 23. Queremos construir un intervalo de confianza del 90% para la cantidad media de horas trabajadas por todos los oficinistas empleados por esta corporación, asumiendo una desviación estándar (sigma) de 5 horas. Podemos usar la misma fórmula:

mu ≈ x barra ± z estrella * sigma / √n

Introduciendo los valores (barra x = 23, sigma = 5, n = 35) y utilizando el valor z crítico (estrella z) correspondiente al 90 % de confianza (1,645), encontramos que la media de la población (mu) es aproximadamente 23 ± 1,4 horas con un 90 % de confianza.

En resumen, incluso si la distribución de la población no es exactamente normal, aún podemos usar el teorema del límite central para construir intervalos de confianza aproximados para la media de la población. Estos intervalos brindan información valiosa y nos ayudan a hacer inferencias estadísticas, entendiendo el nivel de confianza asociado con nuestras estimaciones.

Confidence Intervals and the Central Limit Theorem
Confidence Intervals and the Central Limit Theorem
  • 2020.08.11
  • www.youtube.com
The central limit theorem lets us build confidence intervals for the mean even when the shape of the population distribution isn't known. If this vid helps y...
 

Uso de R para calcular en la distribución t


Uso de R para calcular en la distribución t

Hola a todos, hoy realizaremos algunos cálculos utilizando la distribución t en R. Resolveremos tres problemas paso a paso. ¡Vamos a sumergirnos!

Primero, hablemos de cómo calculamos las probabilidades en la distribución t usando la función de distribución acumulativa (CDF). Al ingresar un valor t específico, como 0.44, la CDF nos da la probabilidad de obtener aleatoriamente un puntaje t menor o igual a ese valor. Visualmente, esto corresponde a graficar una curva de campana ya que las distribuciones t exhiben patrones en forma de campana.

Para encontrar la probabilidad, etiquetamos el puntaje t de interés (0.44) y sombreamos el área a la izquierda de ese puntaje. Esta área sombreada representa la probabilidad que estamos buscando. Recomiendo enfáticamente usar R para los cálculos de distribución t en lugar de depender de tablas, ya que pueden ser desafiantes y menos precisos. En R, el comando correspondiente a la CDF de una distribución t es pt, que requiere dos argumentos: el valor t (0.44) y el número de grados de libertad (26).

Pasemos a R y ejecutemos el comando pt: pt(0.44, 26). El resultado es de aproximadamente 0,668, lo que indica que la probabilidad de obtener aleatoriamente un t-score menor o igual a 0,44 en esta distribución t está en torno al 66,8%.

Ahora, pasemos al problema dos. Queremos encontrar la probabilidad de que t esté entre -0.8 y 0.5 en una distribución t con 19 grados de libertad. Para resolver esto, calculamos el área a la izquierda de t = 0.5 y restamos el área a la izquierda de t = -0.8. Podemos lograr esto usando dos comandos pt con una resta en el medio: pt(0.5, 19) - pt(-0.8, 19). El resultado es de aproximadamente 0,472, lo que indica que la probabilidad de obtener aleatoriamente un t-score entre -0,8 y 0,5 en una distribución t con 19 grados de libertad es de aproximadamente 47,2%.

Pasando al problema tres, necesitamos encontrar un valor (tau) en la distribución t con 50 grados de libertad, tal que la probabilidad de obtener una puntuación t menor o igual a tau sea 0.3. Esto implica un cálculo CDF inverso. Podemos usar la función qt en R, proporcionando la probabilidad (0.3) y el número de grados de libertad (50). Ejecutemos el comando qt: qt(0.3, 50). El resultado es aproximadamente -0,5277. Es importante tener en cuenta que obtener un número negativo es razonable ya que el centro de la curva de campana en cualquier distribución t está en t = 0.

Recuerde, estos cálculos se pueden hacer manualmente, pero R proporciona funciones convenientes (pt y qt) para simplificar el proceso. El uso de estas funciones ahorra tiempo y garantiza la precisión.

Using R to Calculate in the t-Distribution
Using R to Calculate in the t-Distribution
  • 2020.08.15
  • www.youtube.com
R is a fantastic way to do computations in the t-distribution. If this vid helps you, please help me a tiny bit by mashing that 'like' button. For more #rsta...
 

Intervalos de confianza y tamaño de la muestra


Intervalos de confianza y tamaño de la muestra

Hola a todos, hoy hablaremos sobre los intervalos de confianza y el tamaño de la muestra. Cuando tenemos una muestra aleatoria simple de tamaño "n" con una media muestral "x barra", podemos construir un intervalo de confianza de nivel "c" para la media poblacional "mu" usando la fórmula:

mu = x barra ± z estrella * sigma / √n

Aquí, "z star" representa la puntuación z crítica correspondiente al nivel de confianza "c" y "sigma" es la desviación estándar de la población. El término "z star * sigma / √n" se conoce como el margen de error, que es una estimación de cuánto puede desviarse nuestra media muestral de la verdadera media poblacional "mu".

La idea detrás de la construcción de un intervalo de confianza es que, en términos generales, "mu" caerá dentro del margen de error de "x barra" un porcentaje "c" del tiempo.

Ahora, consideremos una pregunta práctica: ¿Qué tamaño de muestra necesitamos si queremos que el margen de error no sea mayor que un umbral específico "e"? En este caso, conocemos "e", el margen de error deseado, "c", el nivel de confianza y "sigma", la desviación estándar de la población (suponiendo que se conozca). Necesitamos encontrar el tamaño de muestra requerido "n" resolviendo la ecuación algebraicamente.

Para calcular el tamaño de la muestra, multiplicamos ambos lados de la ecuación por √n, dividimos ambos lados por "e" y luego elevamos al cuadrado ambos lados, lo que nos da:

n = (estrella z * sigma / e)^2

Si el valor resultante de "n" no es un número entero, que suele ser el caso ya que "z star" tiende a ser irracional, lo redondeamos al número entero más cercano. Es importante tener en cuenta que aumentar el tamaño de la muestra reduce el margen de error, y redondear "n" hacia abajo podría potencialmente aumentar el margen de error más allá del umbral deseado "e".

La puntuación z crítica, "estrella z", está determinada por el nivel de confianza especificado "c". Este valor se puede calcular usando tecnología o refiriéndose a una tabla. Aunque normalmente no se recomienda el uso de tablas para los cálculos estadísticos, en el caso de los niveles de confianza de uso común, como un nivel de confianza del 95 % (correspondiente a una puntuación z de 1,960), la tabla es pequeña y razonable de usar.

Consideremos un ejemplo: Supongamos que queremos determinar el peso de un estadístico a la media libra más cercana con un 95% de confianza utilizando una escala con una desviación estándar de 1,2 libras. ¿Cuántas veces tenemos que pesar al estadístico?

Al introducir los valores dados en la fórmula del tamaño de la muestra, encontramos que el tamaño de muestra mínimo requerido es de 23 pesajes, que redondeamos a 23. Por lo tanto, necesitamos pesar al estadístico 23 veces para conocer su peso a la media libra más cercana con 95% de confianza.

Como era de esperar, si aumentamos el nivel de confianza o disminuimos el margen de error, el tamaño de muestra requerido también aumentará. Por el contrario, si aumentamos el margen de error, el tamaño de muestra necesario disminuirá.

En otro ejemplo, supongamos que un fabricante desea determinar el peso medio de cierto tipo de clavo de hierro dentro de los 0,2 gramos con un 99 % de confianza, y la desviación estándar de la población es de 0,5 gramos. Al aplicar la fórmula del tamaño de la muestra, encontramos que se necesita un tamaño de muestra mínimo de 42 clavos para lograr un nivel de confianza del 99 % con un margen de error no inferior a 0,2 gramos.

Comprender los intervalos de confianza y su relación con el tamaño de la muestra nos permite planificar estudios y experimentos de manera efectiva, lo que garantiza que nuestras estimaciones sean precisas y confiables dentro del nivel deseado de confianza y precisión.

Confidence Intervals and Sample Size
Confidence Intervals and Sample Size
  • 2020.08.03
  • www.youtube.com
Choosing the correct sample size to accommodate a required margin of error is easy! Let's see how to do it. If this vid helps you, please help me a tiny bit ...
 

Intervalos de confianza utilizando la distribución t


Intervalos de confianza utilizando la distribución t

Hola a todos, en la sesión de hoy, construiremos intervalos de confianza utilizando la distribución t. En nuestras discusiones anteriores, usamos la fórmula mu es igual a x barra más o menos z-estrella sigma sobre la raíz cuadrada de n para aproximar la media poblacional mu con la media muestral x barra y calcular el margen de error. Sin embargo, esta fórmula supone que conocemos la desviación estándar sigma de la población, lo que a menudo no es el caso.

Para superar esta limitación, podemos estimar la desviación estándar de la población sigma usando la desviación estándar de la muestra s. La fórmula del intervalo de confianza con la distribución t es similar a la anterior, con una ligera modificación. En lugar del puntaje z crítico, usamos el valor t crítico basado en el nivel de confianza elegido. La distribución t describe la variabilidad de la variable t, que viene dada por t igual a x barra menos mu sobre s dividido por la raíz cuadrada de n. La distribución t es simétrica y tiene forma de campana, similar a la distribución normal estándar, pero con un poco más de dispersión para tamaños de muestra más pequeños.

Para construir un intervalo de confianza, necesitamos encontrar los valores de corte para t, denotados como t-estrella, de modo que la probabilidad de que t esté entre t-estrella negativa y t-estrella positiva sea igual al nivel de confianza elegido. Una vez que determinamos t-star, podemos calcular el intervalo de confianza usando la fórmula mu es igual a x barra más o menos t-star s sobre la raíz cuadrada de n.

Trabajemos con un ejemplo. Un grupo de investigadores quiere investigar las concentraciones de sodio en un lago canadiense. Recolectaron 23 muestras y encontraron una media de 24,7 partes por millón y una desviación estándar de muestra de 4,2 partes por millón. Queremos construir un intervalo de confianza del 95 % para la concentración media de sodio en el lago. Como no conocemos la desviación estándar de la población, usaremos la distribución t.

Sustituyendo los valores, tenemos x barra igual a 24,7, s igual a 4,2 y n igual a 23. Para encontrar el valor t crítico, necesitamos determinar el valor de estrella t que corresponde a dejar el 2,5 % del área a cada lado de la distribución t. Usando un cálculo de t inversa, encontramos que t-star es aproximadamente 2.074.

Ahora podemos construir el intervalo de confianza: 24,7 más o menos 2,074 por 4,2 dividido por la raíz cuadrada de 23. Simplificando esta expresión, obtenemos un intervalo de confianza de 24,7 más o menos 1,8.

Vale la pena señalar que el valor t crítico, 2,074, es ligeramente mayor que el puntaje z crítico que habría sido para el mismo nivel de confianza. Esto se debe a que estamos estimando la desviación estándar de la población, introduciendo cierta incertidumbre adicional, lo que da como resultado un intervalo de confianza ligeramente más amplio.

En resumen, cuando construimos intervalos de confianza sin conocer la desviación estándar de la población, usamos la distribución t y estimamos la desviación estándar de la población con la desviación estándar de la muestra. El resto del proceso es similar a la construcción de intervalos de confianza con una desviación estándar conocida, pero con valores t críticos en lugar de puntuaciones z críticas.

Confidence Intervals Using the t-Distribution
Confidence Intervals Using the t-Distribution
  • 2020.08.15
  • www.youtube.com
How do we construct confidence intervals when the population standard deviation is unknown? Easy! We use the t-distribution. If this vid helps you, please he...
 

Intervalos de confianza en R


Intervalos de confianza en R

Hola a todos, hoy trabajaremos con intervalos de confianza en R, que es particularmente útil cuando tenemos un conjunto de datos reales en lugar de solo estadísticas resumidas. En este ejemplo, veremos el conjunto de datos de CO2 y nos centraremos en la variable de "captación".

Anteriormente, calculamos los intervalos de confianza usando la media de la muestra (barra x) y la desviación estándar de la muestra (s), pero ahora aprenderemos un atajo usando el comando "t.test". Al proporcionar la variable de interés, en este caso, "captación" del conjunto de datos de CO2, el comando tendrá un nivel de confianza predeterminado del 95 %.

El comando t-test proporciona varias piezas de información, algunas de las cuales serán más relevantes cuando analicemos las pruebas de hipótesis más adelante. Por ahora, los detalles clave a tener en cuenta son el intervalo de confianza del 95 % y la estimación puntual. El intervalo de confianza representa el rango de valores dentro del cual podemos estimar la media de la población. La estimación puntual es la media de la muestra, que sirve como una estimación de valor único para la media de la población.

La salida de la prueba t también incluye los grados de libertad, que es uno menos que el tamaño de la muestra. Otra información, como los valores de p y las hipótesis alternativas, se discutirán en videos futuros sobre pruebas de significancia.

Aunque la salida de la prueba t no proporciona directamente el margen de error, podemos calcularlo manualmente. El margen de error para un intervalo de confianza t sigue la fórmula: T* * (s / sqrt(n)), donde s es la desviación estándar de la muestra, n es el tamaño de la muestra y T* es el valor t crítico para el nivel de confianza deseado.

Para encontrar T*, usamos la función "qt" y especificamos el área a la izquierda de T*. Para un intervalo de confianza del 95 %, queremos el 97,5 % del área a la izquierda de T*. Por lo tanto, calculamos T* como "qt(0.975, 83)". Multiplicando T* por la desviación estándar de la muestra y dividiéndola por la raíz cuadrada del tamaño de la muestra se obtiene el margen de error.

Alternativamente, podemos usar la función "t.test" en R para calcular el intervalo de confianza automáticamente. Para cambiar el nivel de confianza, agregamos el argumento "conf.level=" y especificamos el porcentaje deseado. Por ejemplo, configurar "conf.level = 90" nos da un intervalo de confianza del 90 %.

Cuando disminuimos el nivel de confianza, el intervalo de confianza resultante se vuelve más estrecho. El límite superior del intervalo disminuye, indicando un mayor nivel de precisión en nuestra estimación.

En resumen, los intervalos de confianza proporcionan un rango de valores dentro del cual estimamos la media de la población. R proporciona funciones convenientes como "t.test" y "qt" para simplificar los cálculos y obtener resultados precisos.

Confidence Intervals in R
Confidence Intervals in R
  • 2020.03.27
  • www.youtube.com
Quick t-distribution confidence intervals in R. So easy! If this vid helps you, please help me a tiny bit by mashing that 'like' button. For more #rstats joy...
 

Intervalos de confianza para proporciones


Intervalos de confianza para proporciones

Hola a todos, hoy construiremos intervalos de confianza para proporciones. A menudo, nos encontramos con procesos aleatorios con dos resultados posibles, como cara o cruz, sí o no, o verdadero o falso. Queremos sacar conclusiones sobre las probabilidades de estos resultados basados en datos de muestra.

Para analizar estos resultados, asignamos un resultado como un éxito y lo codificamos como uno, mientras que el otro resultado es un fracaso y se codifica como cero. Es importante tener en cuenta que los términos "éxito" y "fracaso" son arbitrarios y no implican ningún juicio de valor sobre los resultados.

Al codificar la variable de esta manera, creamos una variable aleatoria discreta, que llamaremos X. X puede tomar dos valores, uno y cero, con probabilidades p y (1 - p) respectivamente. Aquí, p representa la probabilidad de éxito.

Para este tipo de variable aleatoria, podemos calcular información de resumen. El valor medio o esperado es la suma de todos los valores posibles de la variable aleatoria ponderados por sus respectivas probabilidades. Para un ensayo de Bernoulli, la media es igual a p.

La desviación estándar de una variable aleatoria es la raíz cuadrada de la suma de los cuadrados de las diferencias entre los valores individuales y el valor esperado, cada uno ponderado por sus probabilidades. Para una prueba de Bernoulli, la desviación estándar viene dada por la raíz cuadrada de (p * (1 - p)).

Ahora, consideremos ejecutar n pruebas de Bernoulli idénticas e independientes, donde p permanece constante en todas las pruebas. La proporción de éxitos en estas pruebas se denota como p-hat, que es igual a (1/n) * sum(xi), donde xi es uno para el éxito y cero para el fracaso. En otras palabras, p-hat es la proporción de éxitos en los n intentos.

Como p-sombrero es solo una media muestral, podemos aplicarle nuestro conocimiento de las medias muestrales. La media de p-sombrero es igual a p, la misma que la media de un ensayo de Bernoulli individual. La desviación estándar de p-hat es igual a la raíz cuadrada de ((p * (1 - p)) / n), que es la desviación estándar de un solo ensayo de Bernoulli dividida por la raíz cuadrada de n. Por el teorema del límite central, la distribución de muestreo de p-sombrero es aproximadamente normal cuando n es grande, típicamente 30 o más.

Ahora, analicemos los intervalos de confianza. En el caso de una media, la estructura básica de un intervalo de confianza es mu = x-barra +/- z-estrella * sigma-sub-x-barra. De manera similar, para una proporción, la fórmula del intervalo de confianza es p = p-sombrero +/- z-estrella * sqrt((p-sombrero * (1 - p-sombrero)) / n).

En la fórmula de proporción, p-hat representa la proporción experimental de éxitos en nuestra muestra, mientras que p es la probabilidad general de éxito que estamos tratando de estimar. El margen de error disminuye cuando p-hat es cercano a cero o uno, por lo que es recomendable no utilizar este intervalo de confianza en estos casos.

Para determinar el tamaño de muestra requerido para un margen de error dado (e), usamos la fórmula n = (p-hat * (1 - p-hat) * z-star^2) / epsilon^2. Si no tenemos datos preliminares, podemos usar la estimación más conservadora, p-hat = 0.5, que da el tamaño de muestra más grande posible. En este caso, la fórmula se convierte en n = (z-star^2) / (4 * epsilon^2).

Consideremos un ejemplo. Supongamos que queremos realizar una encuesta con un 95 % de confianza y el margen de error no debe ser superior al 3 %. Como no tenemos datos preliminares, usaremos la estimación conservadora p-sombrero = 0,5. Introduciendo los valores z-star = 1,96 y epsilon = 0,03 en la fórmula, obtenemos:

n = (1.96^2) / (4 * 0.03^2) ≈ 1067.1

Dado que el tamaño de la muestra debe ser un número entero, redondeamos el valor para garantizar que el margen de error no exceda el 3 %. Por lo tanto, necesitaríamos un tamaño de muestra de 1068 para esta encuesta.

En resumen, construir intervalos de confianza para proporciones implica asignar valores de éxito y fracaso, calcular las medias y las desviaciones estándar de la muestra y usar las fórmulas apropiadas para determinar los intervalos de confianza. Es importante considerar las condiciones para usar estos intervalos y ajustar el tamaño de la muestra según el margen de error deseado.

Confidence Intervals for Proportions
Confidence Intervals for Proportions
  • 2020.10.11
  • www.youtube.com
How can we estimate a population proportion using only a sample proportion? Using a confidence interval, of course! If this vid helps you, please help me a t...
 

Intervalos de confianza para proporciones: ejemplos


Intervalos de confianza para proporciones: ejemplos

Hoy trabajaremos en dos problemas de ejemplo que involucran la construcción de intervalos de confianza para proporciones. Vamos a sumergirnos en los problemas:

Problema 1: una encuesta de 275 adultos estadounidenses seleccionados al azar revela que 29 de ellos beben café. Necesitamos construir un intervalo de confianza del 90% para la proporción de todos los adultos estadounidenses que beben café.

Usando la fórmula para un intervalo de confianza para proporciones: p = p̂ ± z √(p̂(1 - p̂)/n), donde p̂ es la proporción de la muestra, n es el tamaño de la muestra y z es el valor z crítico correspondiente a el nivel de confianza deseado.

Dado p̂ = 29/275 = 0,1055, n = 275 y z* = 1,645 (para un nivel de confianza del 90 %), podemos introducir estos valores:

p = 0,1055 ± 1,645 * √((0,1055 * (1 - 0,1055))/275)

Calculando esta expresión, encontramos que el intervalo de confianza para la proporción de adultos estadounidenses que beben café es de aproximadamente 0,1055 ± 0,045. Por lo tanto, podemos estimar con un 90 % de confianza que la verdadera proporción se encuentra dentro del intervalo (0,0605, 0,1505).

Problema 2: Un investigador desea estudiar el consumo de té en los Estados Unidos y necesita determinar el tamaño de muestra necesario para garantizar un margen de error no superior al 4 %.

Usando la fórmula para el margen de error en un intervalo de confianza para proporciones: e = z*√(p̂(1 - p̂)/n), podemos reorganizarlo para resolver el tamaño de la muestra:

n = (z*^2 * p̂(1 - p̂)) / e^2.

En este caso, no tenemos datos preliminares, por lo que usamos la estimación más conservadora para p̂, que es 0,5 (que indica la máxima variabilidad). Dado z* = 1,645 (para un nivel de confianza del 90 %) y e = 0,04, podemos sustituir estos valores en la fórmula:

n = (1.645^2 * 0.5(1 - 0.5)) / 0.04^2

Simplificando la expresión, encontramos que el tamaño de muestra mínimo requerido es de aproximadamente 257.03. Dado que el tamaño de la muestra debe ser un número entero, redondeamos hacia arriba para garantizar que no se exceda el margen de error deseado. Por lo tanto, se requiere un tamaño de muestra de 258 para garantizar un margen de error no mayor al 4%.

En resumen, la construcción de intervalos de confianza para proporciones implica el uso de fórmulas que incorporan proporciones de muestra, tamaños de muestra y valores críticos. Al aplicar estas fórmulas, podemos estimar las proporciones de la población dentro de un nivel específico de confianza y determinar el tamaño de muestra necesario para lograr el margen de error deseado.

Confidence Intervals for Proportions: Examples
Confidence Intervals for Proportions: Examples
  • 2020.10.12
  • www.youtube.com
Constructing a confidence interval for a population proportion using sample data, and planning the sample size of a study. Awesome! If this vid helps you, pl...
 

Introducción a la prueba de hipótesis


Introducción a la prueba de hipótesis

Hola a todos, en la sesión de hoy, nos sumergiremos en la prueba de hipótesis, también conocida como prueba de significancia. Para comprender mejor el concepto, trabajaremos juntos en un ejemplo. Vamos a empezar.

Suponga que un fabricante de chocolate afirma que sus barras de chocolate pesan, en promedio, 350 gramos. Sin embargo, sospecho que su afirmación es exagerada y que el verdadero peso medio de sus barras de chocolate es inferior a 350 gramos. Para investigar esto, recolecto una muestra de 10 barras de chocolate y registro sus pesos. Si la media de la muestra es inferior a 350 gramos, proporcionará evidencia en contra de la afirmación de la empresa. Si es igual o superior a 350 gramos, no cuestionará su afirmación.

Supongamos que mi muestra produce un peso medio de 347 gramos, que está por debajo de los 350 gramos. En consecuencia, este resultado respalda mi sospecha y desafía la afirmación de la empresa. Sin embargo, la compañía podría argumentar que mi muestra podría haber sido aleatoriamente ligera, y si tuviera que recolectar otra muestra, podría producir exactamente 350 gramos o incluso más debido al azar. Por lo tanto, necesito un método para tomar una decisión entre estas dos posibilidades: que la empresa mienta o que el resultado se deba al azar.

En tal situación, lo mejor que podemos hacer es hacer una declaración de probabilidad con respecto al reclamo de la compañía. Queremos determinar la probabilidad de que, si la empresa dice la verdad, obtengamos una media muestral tan baja como la que observamos por pura casualidad. Una probabilidad más baja indica una evidencia más sólida en contra de la afirmación de la empresa.

Para proceder matemáticamente, supongamos la hipótesis nula, denotada como H0, que se alinea con la afirmación de la empresa. En este caso, la hipótesis nula establece que la media poblacional de todas las barras de chocolate es exactamente 350 gramos. Por otro lado, tenemos la hipótesis alternativa, denotada como Ha, que representa lo que pretendemos establecer. En este caso, Ha afirma que el peso medio de todas las barras de chocolate es inferior a 350 gramos (Ha: μ < 350).

Es importante tener en cuenta que tanto H0 como Ha se refieren a parámetros de población, no a la media de la muestra (barra x). Todavía no hemos mencionado la barra x porque la usaremos para tomar una decisión entre H0 y Ha.

Para calcular la probabilidad, debemos considerar la distribución muestral de x-barra. Suponemos que la hipótesis nula es verdadera y prevemos obtener múltiples muestras de tamaño 10. ¿Cómo es la distribución de la barra x? Si bien las barras de chocolate individuales pueden variar en peso, el peso promedio (barra x) se alineará, en promedio, con la media de la población (μ).

El teorema del límite central nos ayuda aún más a comprender la distribución de muestreo. Para un tamaño de muestra suficientemente grande (a menudo n > 30), la distribución de muestreo de la barra x se aproxima a una distribución normal con media μ y desviación estándar σ/√n. Si la distribución de la población en sí es normal, la aproximación es exacta y la distribución de la barra x es exactamente normal.

Imagine la curva azul que representa barras de chocolate individuales, donde hay un peso promedio de 350 gramos bajo la hipótesis nula. Algunas barras pueden ser un poco más pesadas o más livianas, y algunas pueden desviarse significativamente. Ahora visualice la curva verde, que representa la distribución de muestreo de la barra x. En promedio, la barra x será de 350 gramos si la hipótesis nula es verdadera, con alguna ligera variación. Sin embargo, la variabilidad en la barra x será menor en comparación con las barras individuales porque los pesos extremos tienden a equilibrarse entre sí en una muestra.

Supongamos que conocemos la desviación estándar de las barras de chocolate, que es de 4 gramos. Aunque es posible que este no sea un valor que normalmente conozcamos, lo abordaremos en videos futuros. Con la hipótesis nula de μ = 350 gramos y el teorema del límite central, tenemos toda la información necesaria sobre la distribución muestral de x-barra. Seguirá una distribución normal con una media de 350 gramos y una desviación estándar de 4 gramos dividida por la raíz cuadrada de 10 (dado que el tamaño de la muestra es 10), que es aproximadamente 1,26 gramos.

Para calcular la probabilidad de obtener una media muestral (barra x) menor o igual a 347 gramos puramente al azar, podemos calcular una puntuación z. La probabilidad de que la barra x sea menor o igual a 347 gramos es igual a la probabilidad de que el puntaje z correspondiente sea menor o igual a (347 - 350) / 1,26, lo que se simplifica a -2,37.

Usando software estadístico o una tabla, encontramos que la probabilidad de que una distribución normal estándar sea menor o igual a -2.37 es aproximadamente 0.0089. Esta probabilidad se llama valor p.

Ahora, analicemos la interpretación del valor p. En este caso, el valor p de 0,0089 es relativamente pequeño. El valor p representa la probabilidad de obtener una media muestral de 347 gramos o menos si la hipótesis nula (μ = 350 gramos) es verdadera. Un valor p pequeño sugiere que es poco probable observar una media muestral tan baja si la hipótesis nula es verdadera.

Hay dos posibilidades a considerar: Primero, es posible que la hipótesis nula sea verdadera y que observamos un evento raro (media muestral de 347 gramos o menos) por casualidad, que ocurre aproximadamente 0.0089 veces. En segundo lugar, es posible que la hipótesis nula sea falsa (como sospechábamos inicialmente) y la hipótesis alternativa (μ < 350 gramos) sea verdadera.

Dado que el valor p de 0,0089 es bastante bajo, la primera posibilidad parece poco probable. Por tanto, rechazamos la hipótesis nula (H0: μ = 350 gramos) y apoyamos la hipótesis alternativa (Ha: μ < 350 gramos). Esto nos lleva a concluir que hay pruebas sólidas que sugieren que el peso medio de la población de las barras de chocolate producidas por esta empresa es, de hecho, inferior a 350 gramos.

Para terminar, hemos cubierto los pasos básicos para realizar una prueba de hipótesis. Sin embargo, hay preguntas adicionales que aún no hemos abordado, como determinar el umbral para un valor p lo suficientemente pequeño, considerar hipótesis alternativas y tratar situaciones en las que se desconocen los parámetros de la población. En videos futuros, exploraremos estas preguntas y brindaremos más información sobre la prueba de hipótesis.

Introduction to Hypothesis Testing
Introduction to Hypothesis Testing
  • 2020.10.29
  • www.youtube.com
Let's talk about hypothesis testing (also known as significance testing). How can we test a claim about a population using just sample data? What is a p-valu...
 

Significancia estadística


Significancia estadística

¡Buen día a todos! Hoy, profundizaremos en el concepto de prueba de hipótesis y discutiremos la idea de significación estadística. Las pruebas de hipótesis vienen en varias formas, siendo las más comunes la prueba z y la prueba t para medias poblacionales. Sin embargo, la lógica fundamental sigue siendo la misma.

Primero, asumimos que la hipótesis nula es verdadera. Luego, reunimos una muestra de datos y calculamos la probabilidad de obtener una muestra similar puramente al azar, asumiendo que la hipótesis nula es correcta. Esta probabilidad se conoce como el valor p de la prueba. Un valor de p más bajo indica evidencia más sólida contra la hipótesis nula.

Sin embargo, en la mayoría de los casos, la simple comparación de los valores p podría no ser suficiente para tomar una decisión definitiva. Por lo tanto, a menudo es útil establecer un valor p de corte predeterminado, conocido como el nivel de significancia alfa, antes de realizar la prueba de hipótesis. Normalmente, alfa se establece en 0,05, aunque puede variar.

Cuando rechazamos la hipótesis nula con base en un valor p que es menor que alfa, consideramos que los resultados son estadísticamente significativos. En otras palabras, la evidencia apoya la hipótesis alternativa. Ahora, exploremos un par de ejemplos para ilustrar estos conceptos.

Ejemplo 1: un fabricante de chocolate afirma que el peso medio de sus barras de chocolate es de 350 gramos. Sin embargo, sospechamos que el verdadero peso medio es menor. Establecimos una prueba de significación estableciendo una hipótesis nula de que la afirmación de la empresa es cierta y una hipótesis alternativa de que el peso medio es inferior a 350 gramos. Decidimos de antemano utilizar un nivel de significancia de alfa igual a 0,05.

Después de recolectar una muestra de tamaño 10 y calcular una media muestral de 347 gramos, determinamos la probabilidad de obtener resultados tan extremos como este, asumiendo que la hipótesis nula es verdadera. Esto da como resultado un valor p de 0,0089. Dado que este valor p es inferior a 0,05, rechazamos la hipótesis nula y concluimos que el peso medio de las barras de chocolate de la empresa es, en efecto, inferior a 350 gramos.

Ejemplo 2: Los investigadores médicos realizan un estudio para probar la eficacia de un nuevo medicamento para bajar de peso. Eligen un nivel de significación de alfa igual a 0,01. La hipótesis nula establece que la pérdida de peso media en comparación con un placebo es cero, mientras que la hipótesis alternativa sugiere una pérdida de peso media positiva. Tras analizar los datos, obtienen un p-valor de 0,045. Como el valor p es mayor que el nivel de significación elegido de 0,01, no pueden rechazar la hipótesis nula. Por lo tanto, no hay evidencia suficiente para concluir que el tratamiento es superior al placebo en promedio.

Es importante tener en cuenta que la conclusión podría haber sido diferente si hubieran elegido un nivel de significancia de alfa igual a 0,05. Esto destaca una trampa potencial de las pruebas de significancia y el uso de umbrales alfa. Confiar ciegamente en la prueba de hipótesis para la toma de decisiones puede ser arriesgado. Informe siempre el valor p junto con cualquier decisión tomada en función del nivel de significación alfa. Además, tenga cuidado al interpretar los valores p y considere varios factores, como discutiré en el próximo video.

Statistical Significance
Statistical Significance
  • 2020.10.30
  • www.youtube.com
Let's talk about statistical significance! What's up with alpha anyway?? If this vid helps you, please help me a tiny bit by mashing that 'like' button. For ...
 

Prueba de hipótesis: alternativas de uno y dos lados


Prueba de hipótesis: alternativas de uno y dos lados

En la discusión de hoy, profundizaremos en el concepto de prueba de hipótesis, centrándonos específicamente en las hipótesis alternativas unilaterales y bilaterales. Comencemos revisando la estructura fundamental de una prueba de hipótesis para la media.

El primer paso es identificar la hipótesis nula, denotada como H₀. Esta declaración se refiere a la media de la población y representa la afirmación contra la que pretendemos recopilar pruebas. A continuación, establecemos una hipótesis alternativa, denominada Hₐ, que contradice la hipótesis nula y, por lo general, representa la hipótesis que buscamos establecer. La noción detrás de este proceso es que al acumular evidencia en contra de la hipótesis nula, indirectamente acumulamos evidencia a favor de la hipótesis alternativa.

Posteriormente, recopilamos datos y calculamos una media de muestra, denotada como x̄. A partir de ahí, determinamos la probabilidad (valor p) de obtener una media muestral que sea tan extrema como la que observamos, suponiendo que la hipótesis nula sea verdadera. El valor p indica la fuerza de la evidencia en contra de la hipótesis nula, donde los valores más bajos indican una evidencia más fuerte a favor de la hipótesis alternativa. A menudo, concluimos la prueba de hipótesis comparando el valor p con un límite predeterminado, denominado alfa, que denota el nivel de significancia de la prueba. Si el valor p es menor que alfa, rechazamos la hipótesis nula. Es crucial tener en cuenta que el nivel de significación alfa debe elegirse antes de la recopilación de datos.

Ahora, exploremos hipótesis alternativas con más detalle. En la discusión anterior, afirmamos que la hipótesis alternativa se elige para contradecir la hipótesis nula. Incluso para una hipótesis nula simple de mu igual a mu₀, donde mu₀ representa un valor hipotético, hay tres posibles hipótesis alternativas:

  1. mu < mu₀: esta hipótesis alternativa afirma que la media de la población, mu, es menor que el valor hipotético, mu₀.
  2. mu > mu₀: esta hipótesis alternativa sugiere que la media de la población, mu, es mayor que el valor hipotético, mu₀.
  3. mu ≠ mu₀: esta hipótesis alternativa no hace suposiciones con respecto al valor específico de mu.

Las dos primeras hipótesis alternativas se denominan alternativas unilaterales debido a que se centran en una dirección específica, mientras que la tercera alternativa se conoce como hipótesis alternativa bilateral. Cada una de estas alternativas contradice la hipótesis nula de formas ligeramente diferentes.

Al realizar una prueba de hipótesis para la media, la elección entre estas opciones depende de las consideraciones del mundo real. Como pauta general, es recomendable seleccionar la hipótesis alternativa de dos colas a menos que exista una razón específica, basada en factores del mundo real, para suponer que la media de la población no puede o no debe ser mayor o menor que el valor proporcionado por la hipótesis nula, mu₀.

Para mejorar nuestra comprensión, procedamos con algunos ejemplos. El primer ejemplo se refiere a una empresa de golosinas que afirma que el peso medio de sus barras de chocolate es de 350 gramos. Si sospechamos que el peso medio es realmente menor, la hipótesis nula sería la afirmación de la empresa, mientras que la hipótesis alternativa sería mu < 350 gramos. En este caso, nos preocupa únicamente la posibilidad de que el peso medio de las barras de chocolate sea inferior a 350 gramos.

En el segundo ejemplo, un manual de enseñanza afirma que un ejercicio específico toma un promedio de 30 minutos. La hipótesis nula sería la afirmación del manual, mu = 30, y la hipótesis alternativa sería mu ≠ 30. Aquí, no tenemos ninguna razón justificable para excluir o descartar la posibilidad de que mu sea menor o mayor que 30.

En el tercer ejemplo, una empresa de cambio de aceite sostiene que, en promedio, completan un cambio de aceite en 15 minutos. Supongamos que sospechamos que el tiempo real es más largo.

Si el valor p es menor o igual al nivel de significación (alfa), rechazamos la hipótesis nula. Esto significa que los datos proporcionan una fuerte evidencia en contra de la hipótesis nula y apoyan la hipótesis alternativa. Por otro lado, si el valor p es mayor que el nivel de significación, no podemos rechazar la hipótesis nula. En este caso, los datos no proporcionan suficiente evidencia para rechazar la hipótesis nula y no tenemos suficiente apoyo para la hipótesis alternativa.

Es importante tener en cuenta que no rechazar la hipótesis nula no significa necesariamente que la hipótesis nula sea verdadera. Simplemente significa que los datos no proporcionan evidencia significativa para apoyar la hipótesis alternativa. La ausencia de evidencia contra la hipótesis nula no prueba su verdad.

La elección entre una hipótesis alternativa unilateral o bilateral depende de la pregunta de investigación específica y de las hipótesis que desee abordar. Si está interesado en determinar si la media de la población es significativamente diferente de un valor específico, elegiría una hipótesis alternativa bilateral. Esto le permite considerar ambas posibilidades de que la media sea mayor o menor que el valor hipotético.

Sin embargo, si tiene una razón específica para creer que la media solo puede ser mayor o menor que el valor hipotético, puede elegir una hipótesis alternativa unilateral. Esto reduce el enfoque de la prueba a una sola dirección de desviación de la hipótesis nula.

En resumen, la prueba de hipótesis implica formular una hipótesis nula, que representa la declaración contra la que desea recopilar evidencia, y una hipótesis alternativa, que contradice la hipótesis nula. Se recopilan datos y se calcula una estadística de prueba, como la media de la muestra. Luego se calcula el valor p, que representa la probabilidad de obtener un estadístico de prueba tan extremo como el observado, asumiendo que la hipótesis nula es verdadera. La elección de una hipótesis alternativa unilateral o bilateral depende de la pregunta de investigación y de los supuestos específicos sobre el parámetro de la población. Finalmente, el valor p se compara con el nivel de significación y se toma la decisión de rechazar o no rechazar la hipótesis nula con base en la evidencia proporcionada por los datos.

Hypothesis Testing: One- and Two-Sided Alternatives
Hypothesis Testing: One- and Two-Sided Alternatives
  • 2020.10.31
  • www.youtube.com
How do we determine the an alternative hypothesis when setting up a hypothesis test? How does our choice affect the way we calculate a p-value?
Razón de la queja: