Tutoriales de programación - página 11

 

datos ordenados


datos ordenados

Hola a todos, hoy hablaremos sobre los datos ordenados, que es un formato particularmente conveniente y común en las aplicaciones de ciencia de datos. Si bien hay varias formas de registrar información en una hoja de cálculo, los datos ordenados siguen tres principios simples para garantizar su organización y utilidad.

En primer lugar, cada fila en los datos ordenados representa una y solo una observación. Esto significa que cada fila captura todas las medidas y detalles de una sola unidad experimental.

En segundo lugar, cada columna representa una y sólo una variable. Las variables son los atributos medidos en todas las unidades experimentales, y cada columna se enfoca en una característica o aspecto específico.

Por último, toda la hoja de cálculo debe constar de exactamente un tipo de observación. Esto asegura que todos los datos en la hoja de cálculo se relacionen con el mismo tipo de experimento o estudio.

Una ventaja significativa de los datos ordenados es su facilidad de expansión. Si obtiene nuevas observaciones o puntos de datos, como nuevos sujetos en un ensayo médico, simplemente puede agregar una nueva fila en la parte inferior de la hoja de cálculo. Del mismo modo, si desea incluir variables adicionales, puede agregar nuevas columnas a la derecha de las existentes.

Echemos un vistazo a un par de ejemplos. El conjunto de datos "mtcars", disponible en R, es un conjunto de datos ordenado. Cada fila representa un solo automóvil y cada columna representa una característica específica de los automóviles. Idealmente, los conjuntos de datos ordenados deben ir acompañados de un diccionario de datos que explique el significado de cada variable y brinde información sobre las unidades de medida. El diccionario de datos también puede incluir metadatos sobre el conjunto de datos, como los detalles de la grabación.

Por otro lado, el conjunto de datos "diamantes" en el paquete "ggplot2" es otro ejemplo de datos ordenados. Cada fila corresponde a un único diamante de talla redonda y cada columna representa una característica de los diamantes.

Sin embargo, no todos los conjuntos de datos están ordenados. Por ejemplo, el conjunto de datos de "construcción" en el paquete "tidyverse" no está ordenado porque dos variables, el número de unidades y la región, se distribuyen en varias columnas.

Es importante tener en cuenta que los datos desordenados no son necesariamente malos, ya que las hojas de cálculo del mundo real suelen tener sus propias convenciones para fines específicos. Sin embargo, cuando se trata de ciencia de datos y exploración de relaciones entre variables entre una gran cantidad de observaciones, los datos ordenados suelen ser más convenientes para la visualización y el modelado.

Para terminar, quiero mencionar las tablas de contingencia, que son un formato común para datos no ordenados. Las tablas de contingencia muestran recuentos para diferentes combinaciones de variables categóricas. Si bien pueden ser útiles, transformarlos en datos ordenados con columnas separadas para cada variable y sus respectivos recuentos puede hacer que los datos sean más manejables y fáciles de analizar.

En resumen, los datos ordenados siguen los principios de una observación por fila, una variable por columna y un tipo de observación en toda la hoja de cálculo. Al adherirse a estos principios, Tidy Data proporciona un formato estructurado y organizado que facilita la exploración, visualización y modelado de datos en aplicaciones de ciencia de datos.

Tidy data
Tidy data
  • 2022.06.08
  • www.youtube.com
Tidy data is just the best. Let's learn all about it!If this vid helps you, please help me a tiny bit by mashing that 'like' button. For more #rstats joy, cr...
 

Experimentos y Estudios Observacionales


Experimentos y Estudios Observacionales

Hola a todos, hoy hablaremos sobre experimentos y estudios observacionales, que son los dos tipos fundamentales de estudios de investigación en estadística. Comprender la diferencia entre ellos es crucial. Exploremos cada tipo y sus características clave.

Experimentos: en un experimento, se aplican diferentes tratamientos a diferentes partes de la muestra y se observan las variaciones resultantes. El objetivo principal es determinar causa y efecto. Si hay resultados distintos entre los grupos de tratamiento, nuestro objetivo es atribuir esas diferencias a los tratamientos específicos. Los estudios experimentales implican influir y manipular activamente las variables.

Estudios observacionales: por otro lado, los estudios observacionales involucran a investigadores que miden las características de la población de interés sin intentar influir en las respuestas de ninguna manera. El tipo más común de estudio observacional es una encuesta por muestreo, en la que los investigadores recopilan datos mediante la observación y el registro de información. La atención se centra en comprender las relaciones y los patrones dentro de los datos observados.

Exploremos algunos ejemplos para distinguir entre experimentos y estudios observacionales:

Un grupo de médicos estudia el efecto de un nuevo medicamento para reducir el colesterol administrándolo a sus pacientes con presión arterial alta. Este es un experimento ya que los médicos están aplicando un tratamiento y analizando los resultados.

Un primatólogo observa a 10 chimpancés en su hábitat natural y toma notas detalladas sobre su comportamiento social. Este es un estudio observacional ya que el primatólogo simplemente observa y registra el comportamiento sin influir en él.

Un tapicero contacta a 500 hombres y 500 mujeres, preguntando a cada individuo sobre su candidato preferido en una próxima elección. Este es otro ejemplo de un estudio observacional. El encuestador recopila datos sin manipular a los participantes o sus respuestas.

Los estudios observacionales pueden ser comparativos, como el ejemplo anterior, donde se contacta a hombres y mujeres por separado para fines de análisis. Sin embargo, dado que no se aplica ningún tratamiento, sigue siendo un estudio observacional.

Ciertas características definen un buen experimento. Debe ser aleatorio, controlado y replicable:

  • La aleatorización garantiza que los sujetos de investigación se asignen al azar a diferentes grupos de tratamiento. Ni los investigadores ni los sujetos deciden quién recibe qué tratamientos. Esto ayuda a minimizar el sesgo y las variables de confusión.
  • El control implica que los grupos de tratamiento sean lo más idénticos posible, excepto por los tratamientos específicos que reciben. Establecer un grupo de control permite realizar comparaciones precisas y ayuda a establecer relaciones de causa y efecto.
  • La replicación se refiere a la capacidad de repetir el experimento y obtener resultados similares. Los experimentos replicables son esenciales para validar los hallazgos y garantizar la confiabilidad del estudio.

En los experimentos, a menudo se hacen comparaciones entre dos o más grupos de tratamiento, con un grupo que sirve como control. El grupo de control proporciona una línea de base para la comparación con los grupos que reciben intervenciones específicas.

Para abordar el efecto placebo, donde los sujetos responden a los tratamientos incluso si no tienen un efecto medible, los experimentadores incluyen un placebo en el grupo de control. Los placebos son tratamientos que se sabe que no tienen ningún efecto real, como una pastilla de azúcar o una lección no relacionada para estudios educativos.

Además de la aleatorización y el control, es ventajoso que la asignación de sujetos a los grupos de tratamiento sea doble ciego siempre que sea posible. Esto significa que ni los sujetos ni los recopiladores de datos saben quién está en qué grupo de tratamiento. El doble ciego ayuda a eliminar el sesgo y garantiza observaciones y mediciones imparciales.

Hay tres diseños experimentales importantes a considerar:

  • Diseño completamente aleatorizado: los sujetos se asignan aleatoriamente a diferentes grupos de tratamiento sin tener en cuenta ninguna agrupación o característica adicional.
  • Diseño de bloques aleatorios: los sujetos se dividen primero en grupos en función de características específicas, como la edad o el sexo, y luego se asignan aleatoriamente a grupos de tratamiento dentro de cada bloque. Este diseño permite a los investigadores analizar cómo los tratamientos afectan a diferentes grupos por separado.
  • Diseño de pares emparejados: los sujetos se emparejan en función de la similitud y luego se asignan aleatoriamente a diferentes grupos de tratamiento. Este diseño permite comparaciones directas entre pares para evaluar los efectos del tratamiento.

Comprender estos tipos de diseño ayuda a los investigadores a planificar experimentos de manera efectiva y sacar conclusiones significativas de los datos. Al implementar diseños experimentales apropiados, los investigadores pueden mejorar la validez y confiabilidad de sus hallazgos.

En resumen, los experimentos y los estudios observacionales son dos tipos fundamentales de estudios de investigación en estadística. Los experimentos implican la aplicación de diferentes tratamientos y la observación de sus efectos para determinar la causa y el efecto. Por otro lado, los estudios observacionales se enfocan en observar y medir características sin influir activamente en las respuestas.

Un buen experimento debe incorporar aleatorización, control y replicabilidad. La aleatorización asegura la asignación imparcial de los sujetos a los grupos de tratamiento, el control minimiza las variables de confusión y la replicación permite la verificación de los resultados. Además, la inclusión de un grupo de control y la consideración del efecto placebo son aspectos importantes del diseño experimental.

Los diferentes diseños experimentales, como el diseño completamente aleatorizado, el diseño de bloques aleatorizados y el diseño de pares combinados, ofrecen flexibilidad para abordar preguntas de investigación específicas y adaptarse a diferentes escenarios de estudio.

Al comprender las distinciones entre experimentos y estudios de observación y emplear diseños experimentales apropiados, los investigadores pueden realizar estudios rigurosos, sacar conclusiones significativas y contribuir al avance del conocimiento en sus respectivos campos.

Recuerde, al planificar un estudio de investigación, considere cuidadosamente la pregunta de investigación, la naturaleza de las variables y los recursos disponibles para determinar el enfoque más adecuado, ya sea un experimento o un estudio observacional.

Experiments and Observational Studies
Experiments and Observational Studies
  • 2020.07.02
  • www.youtube.com
Some essential ideas in statistical research. We discuss randomization, control, blinding, placebos, and more. If this vid helps you, please help me a tiny b...
 

Introducción al Muestreo Estadístico


Introducción al Muestreo Estadístico

¡Buen día a todos! Hoy nos adentramos en el fascinante mundo del muestreo estadístico. En un escenario ideal, realizar un estudio de investigación implicaría recopilar datos de toda la población de interés, similar a un censo. Sin embargo, en la práctica, esto es a menudo poco práctico o imposible. Considere las siguientes preguntas de investigación: ¿Cuál es el promedio de vida de las palomas en Nueva York? ¿Es efectivo un nuevo medicamento para reducir el colesterol LDL en pacientes mayores de 45 años? ¿Qué porcentaje de votantes aprueba el desempeño del presidente? En cada caso, la recopilación de datos de toda la población no es factible. Por lo tanto, recurrimos a un enfoque más manejable: el muestreo.

El muestreo implica seleccionar un subconjunto, o muestra, de la población para representar y sacar conclusiones sobre toda la población. Sin embargo, no todos los métodos de muestreo son igualmente fiables. Analicemos un par de enfoques incorrectos para el muestreo. Primero, la evidencia anecdótica, que consiste en testimonios personales de personas conocidas por el investigador, debe recibirse con escepticismo. Por ejemplo, confiar únicamente en afirmaciones como "Esta píldora funcionó para toda mi familia" o "Hoy hablé con tres personas que aprueban al presidente" puede generar resultados sesgados. De manera similar, el muestreo conveniente, donde los datos se recopilan de fuentes fácilmente accesibles, como una encuesta política realizada en un parque cercano o un estudio psicológico con los alumnos del profesor, puede introducir sesgos debido a la selección no aleatoria de los participantes.

Para asegurar la validez de nuestros hallazgos, es crucial emplear una muestra aleatoria. En una muestra aleatoria, un proceso aleatorio determina qué individuos de la población se incluyen, y cada miembro tiene las mismas posibilidades de ser seleccionado. El objetivo de una muestra aleatoria es evitar el sesgo de muestreo, que ocurre cuando la estadística derivada de la muestra sobrestima o subestima sistemáticamente el parámetro de la población. Es esencial tener en cuenta que las estadísticas derivadas de muestras aleatorias aún exhiben variabilidad, ya que las muestras individuales pueden diferir de la población debido al proceso de selección aleatoria. Sin embargo, en promedio, la estadística será igual al parámetro de población.

Exploremos algunos tipos de muestreo aleatorio. El enfoque más simple e intuitivo es una muestra aleatoria simple (SRS), donde cada muestra del mismo tamaño tiene la misma posibilidad de ser seleccionada. Esto generalmente se logra obteniendo una lista de los miembros de la población, asignándoles números y usando un generador de números aleatorios para seleccionar el número deseado de individuos. En una muestra estratificada, la población se divide en grupos o estratos en función de características importantes como la edad, el sexo o la raza. Luego, se toma una muestra aleatoria simple de cada grupo, lo que permite un análisis separado de diferentes subgrupos dentro de la población. En una muestra de conglomerados, la población se divide en grupos o conglomerados de origen natural o similares. Se selecciona una muestra aleatoria de conglomerados y cada miembro de los conglomerados seleccionados se incluye en la muestra. El muestreo de etapas múltiples combina estas técnicas seleccionando conglomerados, luego tomando muestras aleatorias dentro de cada conglomerado, repitiendo el proceso si es necesario.

Ahora, apliquemos estos conceptos a algunos ejemplos e identifiquemos los métodos de muestreo empleados. En el primer ejemplo, un encuestador contacta a 400 hombres y 400 mujeres al azar, preguntándoles sobre su candidato preferido en unas próximas elecciones. Esta es una instancia de muestreo estratificado, ya que recopila información tanto de hombres como de mujeres al tomar una muestra aleatoria simple dentro de cada grupo. En el segundo ejemplo, los investigadores seleccionan al azar 50 escuelas secundarias y administran un examen de competencia matemática a todos los estudiantes dentro de esas escuelas. Esto representa una muestra por conglomerados, donde la aleatorización ocurre a nivel de escuela y se realiza un censo dentro de las escuelas seleccionadas.

En el tercer ejemplo, un concesionario de automóviles utiliza una lista de clientes para seleccionar al azar a 200 compradores de automóviles anteriores y se pone en contacto con cada uno de ellos para realizar una encuesta de satisfacción. Este es un ejemplo típico de una muestra aleatoria simple, ya que cada grupo de 200 clientes tiene las mismas posibilidades de ser seleccionado. Por último, un grupo médico elige aleatoriamente 35 hospitales de EE. UU. y luego toma una muestra aleatoria de 50 pacientes de cada hospital para examinar el costo de su atención. Este escenario demuestra una muestra de varias etapas. Inicialmente, los conglomerados (hospitales) se seleccionan al azar, seguidos de una muestra aleatoria simple dentro de cada hospital elegido.

Antes de concluir, vale la pena mencionar otro método de muestreo, conocido como muestreo sistemático. Si bien no es una forma de muestreo aleatorio, se puede utilizar como sustituto en circunstancias específicas. En una muestra sistemática, los miembros de la población se seleccionan utilizando un patrón predeterminado. Por ejemplo, una tienda de comestibles podría encuestar a cada 20 personas que salen de la tienda para medir la satisfacción del cliente. Una muestra sistemática puede ser tan efectiva como una muestra aleatoria cuando la población es homogénea, lo que significa que no hay patrones relevantes dentro de ella. Sin embargo, se debe tener precaución para garantizar que el patrón de muestreo no se alinee con ningún patrón existente en la población, ya que esto podría introducir sesgos.

Para resumir, el muestreo estadístico es una herramienta vital cuando no es práctico o imposible recopilar datos de toda una población. Los métodos de muestreo aleatorio, como muestras aleatorias simples, muestras estratificadas, muestras por conglomerados y muestras en varias etapas, ayudan a mitigar el sesgo de muestreo y aumentan la probabilidad de obtener resultados representativos e imparciales. Si bien las muestras aleatorias introducen variabilidad, las estadísticas derivadas de ellas, en promedio, se alinean con los parámetros de la población. Comprender las fortalezas y limitaciones de los diferentes métodos de muestreo es crucial para realizar estudios de investigación confiables y precisos.

Introduction to Statistical Sampling
Introduction to Statistical Sampling
  • 2020.07.06
  • www.youtube.com
Let's talk about sampling techniques! What is a random sample, and why are they desirable? What is sampling bias, and what are some of the ways it can creep ...
 

Sesgo y variabilidad en las estadísticas


Sesgo y variabilidad en las estadísticas

¡Hola a todos! Hoy nos sumergiremos en los conceptos de sesgo y variabilidad en las estadísticas. El objetivo general de la inferencia estadística es sacar conclusiones sobre poblaciones basadas en datos de muestra. Para lograr esto, a menudo usamos estadísticas, que son descripciones numéricas de muestras, para estimar los parámetros correspondientes, que son descripciones numéricas de poblaciones.

Para ilustrar esto, consideremos un ejemplo. Suponga que una encuesta de 1200 votantes revela que el Candidato A le lleva una ventaja de 8 puntos porcentuales al Candidato B. Podemos ver esta diferencia de 8 puntos como una estadística, una estimación de cuánto se espera que gane el Candidato A. Por otro lado, el resultado real de la elección, que es la verdadera diferencia de apoyo entre los candidatos, representa el parámetro.

En algunos casos, la estadística y el parámetro se alinearán perfectamente. Sin embargo, la mayoría de las veces, diferirán en cierta medida. Por ejemplo, el resultado real de la elección podría mostrar que el candidato A gana por 7,8 puntos porcentuales. Si bien tales desviaciones pueden ocurrir debido al azar, pueden plantear un problema al evaluar la calidad de una estadística.

Esto nos lleva al concepto de sesgo. Una estadística, representada como P-sombrero, se considera imparcial si, en promedio, es igual al parámetro correspondiente, denotado como P. En otras palabras, una buena estadística no debe sobrestimar o subestimar sistemáticamente el parámetro. Es importante notar que aquí estamos usando el término "sesgo" en un sentido técnico, sin relación con el prejuicio o la discriminación.

Varias fuentes comunes de sesgo pueden afectar las encuestas. El sesgo de muestreo ocurre cuando no todos los miembros de la población tienen la misma oportunidad de ser seleccionados en una muestra aleatoria. Por ejemplo, si una encuesta telefónica excluye los teléfonos celulares, puede sesgar los resultados hacia las personas mayores, lo que podría diferir de las opiniones de la población general. El sesgo de falta de respuesta surge cuando quienes se niegan a participar en una encuesta difieren de quienes lo hacen, lo que genera posibles sesgos en los datos recopilados.

Las preguntas asimétricas o la redacción sesgada pueden influir en los encuestados para que respondan de cierta manera, introduciendo sesgos en los resultados. El sesgo de deseabilidad social ocurre cuando los encuestados se inclinan a proporcionar respuestas que son socialmente aceptables o vistas de manera positiva. Por ejemplo, si se les pregunta a las personas sobre sus prácticas de higiene dental, es posible que sobreestimen la cantidad de veces que se cepillaron los dientes debido al sesgo de deseabilidad social.

En los estudios experimentales, el sesgo puede provenir de factores como la falta de control o el cegamiento. Si los grupos experimentales difieren más allá del tratamiento que se aplica, puede introducir sesgos en los resultados. La aleatorización es crucial para garantizar la uniformidad y reducir el sesgo.

Mientras que una estadística imparcial tiene como objetivo estimar el parámetro con precisión, la variabilidad explica la tendencia de las estadísticas a variar entre diferentes muestras aleatorias. Incluso con un método de muestreo imparcial, es probable que cada muestra aleatoria arroje una estadística diferente debido únicamente al azar. Es importante tener en cuenta que la variabilidad no es una forma de sesgo. El hecho de que una encuesta no predijera con precisión el resultado de una elección no implica necesariamente que haya fallado.

Para ayudar a visualizar la diferencia entre sesgo y variabilidad, imagínese lanzando dardos a la diana. La baja variabilidad y el bajo sesgo significarían que sus dardos siempre dan en el blanco, muy agrupados alrededor de la diana. La alta variabilidad pero el bajo sesgo darían como resultado dardos dispersos, aún centrados alrededor del blanco. Por el contrario, una alta variabilidad y un alto sesgo darían lugar a dardos muy dispersos, que fallarían en el blanco constantemente. Sin embargo, incluso en el peor de los casos, es posible que un estudio dé en el blanco una vez, lo que indica que pueden ocurrir resultados correctos ocasionales a pesar del alto sesgo y la variabilidad.

Comprender el sesgo y la variabilidad es esencial para evaluar la calidad de las estadísticas e interpretar con precisión los resultados de la investigación.

Bias and Variability in Statistics
Bias and Variability in Statistics
  • 2020.07.02
  • www.youtube.com
Often, a statistic doesn't exactly match up with the parameter it's supposed to be estimating. How can we tell whether it's a good statistic or not? If this ...
 

Construcción de distribuciones de frecuencia


Construcción de distribuciones de frecuencia

¡Hola a todos! Hoy vamos a profundizar en la construcción de distribuciones de frecuencia para resumir y analizar datos cuantitativos. Cuando tenemos un conjunto de observaciones numéricas, es esencial comprender la forma, el centro y la dispersión de los datos. Para lograr esto, simplemente mirar los datos no será suficiente. Necesitamos resumirlo de una manera significativa, y ahí es donde entran en juego las distribuciones de frecuencia.

Una distribución de frecuencia implica dividir los datos en varias clases o intervalos y luego determinar cuántas observaciones caen en cada clase. Consideremos un ejemplo donde tenemos un rango de valores de 11 a 25. Para crear una distribución de frecuencia, podemos dividir este rango en cinco clases y contar el número de observaciones en cada clase.

En la notación utilizada para la notación de intervalos, un corchete duro a la izquierda [indica que el punto final izquierdo está incluido en cada intervalo, mientras que un paréntesis suave a la derecha] indica que el punto final derecho no está incluido. Significa que los valores límite, como 14, 17, 20 y 23, siempre van a la siguiente clase superior. Además, los anchos de clase son todos iguales, en este caso, tres unidades cada uno.

Al examinar la distribución de frecuencias, ya podemos obtener algunos conocimientos sobre los datos. El centro de los datos parece estar alrededor de 18, dentro de la clase de 17 a 20, que tiene una frecuencia más alta. El resto de los datos muestra una simetría relativa alrededor de este pico central.

Ahora, veamos un proceso paso a paso para construir una distribución de frecuencia. En primer lugar, tenemos que decidir el número de clases a utilizar. Si bien no existe una regla estricta, un buen punto de partida suele ser entre 5 y 20 clases. Si usamos muy pocas clases, no capturaremos suficientes detalles en la distribución, lo que dificultará nuestra capacidad para comprender los datos. Por otro lado, el uso de demasiadas clases da como resultado recuentos bajos por clase, lo que dificulta discernir la forma de los datos.

Una vez que determinamos el número de clases, procedemos a calcular el ancho de clase. Para hacer esto, calculamos el rango de los datos restando el valor mínimo del valor máximo. Luego, dividimos el rango por el número de clases. Es crucial redondear el ancho de la clase para garantizar que todas las observaciones caigan en una de las clases. El redondeo hacia abajo puede hacer que algunos puntos de datos se excluyan de la distribución.

A continuación, encontramos los límites inferiores para cada clase. Empezamos con el valor mínimo como límite inferior de la primera clase. Luego, sumamos el ancho de clase para obtener el límite inferior de la segunda clase, y así sucesivamente. El límite superior de cada clase está justo debajo del límite inferior de la siguiente clase.

Finalmente, contamos cuántas observaciones caen en cada clase al examinar el conjunto de datos. Por ejemplo, consideremos un escenario en el que construimos una distribución de frecuencia utilizando ocho clases para un conjunto de datos determinado. Calculamos el rango de los datos, que es 115,5 - 52,0 = 63,5. Dividiendo este rango por ocho, obtenemos un ancho de clase de 7,9, que redondeamos a 8,0. Partiendo del valor mínimo de 52, sumamos 8,0 para obtener los límites inferiores de cada clase: 52, 60, 68, etc.

Al revisar el conjunto de datos y contar las observaciones que caen en cada clase, obtenemos las frecuencias. Es importante tener en cuenta que las clases no deben superponerse y sus anchos deben permanecer iguales. Esto asegura que cada observación se asigne a una sola clase.

Para mejorar nuestra comprensión de la distribución de frecuencias, podemos expandir la tabla agregando columnas para los puntos medios de clase, frecuencias relativas y frecuencias acumuladas. Los puntos medios de clase representan el valor promedio dentro de cada intervalo. Los calculamos tomando el promedio de los límites inferior y superior de cada clase. Por ejemplo, el punto medio para la clase del 52 al 60 es (52 + 60) / 2 = 56, y para la clase del 60 al 68 es (60 + 68) / 2 = 64, y así sucesivamente.

Las frecuencias relativas brindan información sobre la proporción de observaciones dentro de cada clase en relación con el tamaño total del conjunto de datos. Para calcular las frecuencias relativas, dividimos la frecuencia de cada clase por el tamaño total del conjunto de datos. Por ejemplo, dividir la frecuencia 11 por el tamaño del conjunto de datos de 50 nos da una frecuencia relativa de 0,22. De manera similar, dividir 8 por 50 produce una frecuencia relativa de 0,16.

Las frecuencias acumulativas se obtienen sumando las frecuencias de cada intervalo y todos los intervalos anteriores. La frecuencia acumulada del primer intervalo, de 52 a 60, sigue siendo la misma que su frecuencia, que es 11. Para encontrar la frecuencia acumulada del siguiente intervalo, sumamos su frecuencia (8) a la frecuencia acumulada del intervalo anterior. Por ejemplo, la frecuencia acumulada para el segundo intervalo, de 60 a 68, es 11 + 8 = 19. Continuamos este proceso para cada intervalo, sumando las frecuencias y las frecuencias acumuladas anteriores para obtener las frecuencias acumuladas de los intervalos posteriores.

Es importante tener en cuenta que la suma de todas las frecuencias debe ser igual al tamaño total del conjunto de datos (en este caso, 50). La suma de las frecuencias relativas siempre debe ser 1, lo que indica la totalidad del conjunto de datos. Finalmente, el último valor en la columna de frecuencias acumuladas debe coincidir con el tamaño del conjunto de datos.

Expandir la tabla de distribución de frecuencias con columnas para los puntos medios de clase, frecuencias relativas y frecuencias acumuladas ayuda a proporcionar una comprensión más completa de la distribución de datos. Nos permite observar las tendencias centrales, las proporciones y las proporciones acumuladas de los datos de una manera más organizada y perspicaz.

En resumen, construir una distribución de frecuencia implica dividir los datos en clases, determinar el ancho de las clases, calcular los límites inferiores, contar las observaciones en cada clase y analizar las frecuencias resultantes. Ampliar la tabla con información adicional, como puntos medios de clase, frecuencias relativas y frecuencias acumuladas, puede mejorar aún más nuestra comprensión de las características del conjunto de datos.

Constructing Frequency Distributions
Constructing Frequency Distributions
  • 2020.07.04
  • www.youtube.com
Let's learn to construct frequency distributions! We compute class widths, count frequencies, then determine relative and cumulative frequencies. All the goo...
 

Histogramas, polígonos de frecuencia y ojivas


Histogramas, polígonos de frecuencia y ojivas

Hola a todos, hoy vamos a sumergirnos en el mundo de la representación gráfica de datos. Exploraremos histogramas, polígonos de frecuencia y ojivas, que son representaciones visuales de distribuciones de una sola variable. Mientras exploramos estos diferentes tipos de pantallas, usaremos como ejemplo la distribución de frecuencia expandida que creamos en el video anterior. Para refrescar su memoria, comenzamos con un conjunto de datos que consta de 50 valores que van desde aproximadamente 52 a 116. Dividimos el conjunto de datos en ocho clases de igual ancho y determinamos la cantidad de valores en cada clase para construir la distribución de frecuencia.

Comencemos con la representación visual más importante y más utilizada de un conjunto de datos de una sola variable: el histograma de frecuencia. En un histograma, representamos los valores de los datos en el eje horizontal y las frecuencias en el eje vertical. Específicamente, etiquetamos los puntos medios de la clase, como 56, 64, 72, etc., en el eje horizontal. Sobre cada punto medio, dibujamos una barra cuya altura corresponde a la frecuencia de esa clase. Por ejemplo, si las frecuencias de las primeras clases son 11, 8, 9, etc., las barras tendrán esas alturas respectivas.

Es importante tener en cuenta que los histogramas representan la frecuencia usando el área. Más área indica una mayor cantidad de datos. Cuando miramos el gráfico, nuestros ojos se dirigen naturalmente a las áreas con más datos, lo que nos brinda una comprensión intuitiva de la forma, el centro y la distribución del conjunto de datos. Por ejemplo, en este histograma, podemos ver que es más probable que los datos se agrupen alrededor de 56 en lugar de 112. Además, vale la pena mencionar que cuando dibujamos un histograma, no dejamos espacios entre clases adyacentes, a diferencia de un gráfico de barras. donde las brechas suelen estar presentes entre las barras que representan variables categóricas.

A veces, los histogramas se dibujan con el eje horizontal etiquetado con los puntos finales de las clases en lugar de los puntos medios, y eso es perfectamente aceptable. El gráfico transmite la misma información independientemente del enfoque de etiquetado que se utilice. Otra opción es trazar la frecuencia relativa en lugar de la frecuencia en el histograma, lo que debería generar una forma similar. La única diferencia sería un cambio en la escala del eje horizontal para acomodar los valores de frecuencia relativa.

Otro método de visualización similar al histograma es el polígono de frecuencia. Aquí, todavía trazamos los valores de los datos en el eje horizontal y representamos las frecuencias en el eje vertical. Sin embargo, en lugar de dibujar barras, trazamos un punto para cada clase. Estos puntos corresponden a los puntos medios en el eje horizontal y sus respectivas frecuencias en el eje vertical. Luego conectamos estos puntos con líneas. Para asegurarnos de que el polígono parezca completo, agregamos un punto adicional debajo del primer punto medio y otro encima del último punto medio, cada uno extendiéndose por un ancho de clase.

Por último, podemos representar los datos usando una ojiva, que muestra las frecuencias acumuladas. Al construir una ojiva, trazamos los límites de clase superior en el eje horizontal y las frecuencias acumuladas en el eje vertical. Comenzamos con un punto en el eje horizontal correspondiente al primer límite de clase inferior. El propósito de la ojiva es mostrar, para cualquier valor x dado, cuántos puntos de datos en nuestra distribución caen por debajo de ese valor.

Espero que esto aclare los conceptos de graficar datos usando histogramas, polígonos de frecuencia y ojivas. Estas pantallas visuales brindan información valiosa sobre la distribución de conjuntos de datos de una sola variable.

Histograms, Frequency Polygons, and Ogives
Histograms, Frequency Polygons, and Ogives
  • 2020.07.05
  • www.youtube.com
Let's plot some data! Histograms, frequency polygons, and ogives are three of the most fundamental sorts of single-variable plots available to us. If this vi...
 

Tu primera sesión de RStudio


Tu primera sesión de RStudio

Hola a todos, en la sesión de hoy, estamos emocionados de abrir nuestro estudio por primera vez. Nuestro enfoque principal será explorar la funcionalidad básica y sentirnos cómodos trabajando en este entorno. Cuando abra nuestro estudio por primera vez, notará tres paneles diferentes, pero en este video, nos concentraremos principalmente en la pestaña de la consola en el panel más a la izquierda. Sin embargo, mencionaremos brevemente los otros paneles a medida que avanzamos, guardando una discusión más detallada para futuros videos.

Para comenzar, exploremos la pestaña de la consola, que actúa como una calculadora científica en R. Puede realizar operaciones aritméticas básicas, como suma, resta, multiplicación y división. Por ejemplo, si calculamos 8 más 12, la respuesta es 20. Es importante notar que la respuesta se muestra sin corchetes, lo cual explicaremos más adelante en este video. Además, puede agregar espacios para facilitar la lectura, ya que R ignora los espacios cuando se ingresan en la línea de comando.

R proporciona una amplia gama de funciones integradas, como la función de raíz cuadrada. Por ejemplo, la raíz cuadrada de 9 es 3. De manera similar, puede realizar operaciones trigonométricas, cálculos de valor absoluto y más. Los nombres de las funciones suelen ser intuitivos, pero en caso de que no esté seguro, una búsqueda rápida en Google le ayudará a encontrar la sintaxis correcta.

Una función útil de RStudio es la capacidad de recuperar comandos anteriores con la tecla de flecha hacia arriba. Esto le permite recuperar un comando anterior y realizar ediciones si es necesario. Por ejemplo, si desea calcular la raíz cuadrada de 10 en lugar de 9, puede presionar la tecla de flecha hacia arriba, eliminar el 9 e ingresar 10 para obtener aproximadamente 3.162278.

De forma predeterminada, R muestra seis dígitos de precisión a la derecha del punto decimal. Sin embargo, puede ajustar esta configuración en el menú de preferencias según sus necesidades.

Ahora, pasemos a definir variables. En R, puede asignar valores a las variables mediante el operador de asignación, que es una flecha hacia la izquierda ( <- ) o un signo igual ( = ). Se recomienda utilizar la flecha izquierda para las tareas. Por ejemplo, definamos una variable llamada "x" y establézcala en 3. Después de la asignación, la pestaña de entorno en el panel superior derecho mostrará "x = 3" para recordarnos la asignación. Si simplemente escribimos el nombre de la variable "x" en la consola y presionamos enter, R imprimirá su valor, que es 3 en este caso.

Puede realizar operaciones aritméticas usando variables, al igual que con valores numéricos. Por ejemplo, si calculamos 3 más x, el resultado es 6. R respeta el orden de las operaciones, por lo que expresiones como 1 más 2 por x darán como resultado 7 en lugar de 9.

R se vuelve más poderoso cuando asignamos variables como vectores. Para crear un vector, usamos la función de concatenación (c) seguida de paréntesis y los valores que queremos incluir. Por ejemplo, asignemos el vector "y" a los valores 1, 5, 6 y 9. Después de definir el vector, escribir "y" y presionar enter mostrará sus valores: 1, 5, 6 y 9. Ahora puede realizar operaciones aritméticas en el vector, como sumar 2 a cada elemento (y + 2) o aplicar funciones matemáticas como la raíz cuadrada (sqrt(y)).

Además de las operaciones aritméticas, también podemos resumir vectores. Por ejemplo, podemos calcular la mediana (median(y)) o la suma (sum(y)) del vector. R proporciona numerosas funciones para manipular vectores, y si no está seguro acerca de una función específica, una búsqueda rápida en Google le proporcionará la información necesaria. Hay dos características adicionales en RStudio que me gustaría mencionar antes de continuar. El primero es el

Pestaña de historial ubicada en la parte superior de la consola. Al hacer clic en él, puede acceder a una lista de sus comandos más recientes. Puede desplazarse por el historial para revisar y reutilizar los comandos anteriores, lo que puede ser una función que le ahorrará tiempo. Incluso si sale de RStudio y vuelve más tarde, el historial de comandos seguirá estando disponible.

Para reutilizar un comando del historial, simplemente haga doble clic en él y aparecerá en la consola. A continuación, puede realizar las ediciones necesarias y volver a evaluar el comando. Esta característica le permite revisar y modificar fácilmente sus comandos anteriores.

La segunda característica que quiero destacar es la capacidad de dar nombres de variables que constan de más de una letra. Por ejemplo, digamos que queremos crear una variable llamada "números" y asignarle los valores 1, 2, 3, 4, 5 y 6. Podemos hacer esto ingresando "números <- c(1, 2, 3 , 4, 5, 6)" en la consola. Una vez hecha la asignación, podemos realizar varias operaciones sobre la variable, como calcular la raíz cuadrada de "números" (sqrt(numbers)).

Ahora, pasemos a cargar un conjunto de datos y exploremos algunas de las acciones que podemos realizar con los datos cargados. En el panel inferior derecho de RStudio, encontrará un explorador de archivos. Navegue hasta la ubicación de su conjunto de datos y selecciónelo. Por ejemplo, elijamos el conjunto de datos "cuerpo". Haga clic en el botón "Importar conjunto de datos" para importar el conjunto de datos a RStudio.

Durante el proceso de importación, verá una vista previa del formato de hoja de cálculo del conjunto de datos. En el panel superior derecho, la pestaña de entorno mostrará un nuevo objeto llamado "body_data". Este objeto representa un marco de datos con 300 observaciones y 15 variables. Esencialmente, es una tabla con 300 filas y 15 columnas. Puede interactuar con el conjunto de datos ordenando columnas, desplazándose horizontalmente para ver más columnas y tratándolo de manera similar a un archivo de Excel.

Para trabajar con variables específicas en el marco de datos, debemos especificarlas usando la notación del signo de dólar ($). Por ejemplo, si estamos interesados en la variable "edad", podemos escribir "body_data$edad" en la consola. RStudio proporcionará una lista de variables disponibles a medida que comience a escribir. Al presionar enter, verá una lista de todas las edades en el conjunto de datos en el orden en que aparecen.

Una vez que hemos aislado una variable específica, como "body_data$age", podemos realizar operaciones en ella como cualquier otra variable. Por ejemplo, podemos calcular la edad media de todas las personas en el conjunto de datos escribiendo "mean(body_data$age)" en la consola. En este caso, la edad promedio se determina en 47.0.

Además de la media, puede explorar otras estadísticas como la desviación estándar, la mediana, la suma, el mínimo, el máximo y más usando las funciones apropiadas. Profundizaremos en estas técnicas de manipulación de datos en videos futuros, explorando el poder de R para el análisis estadístico.

Eso concluye nuestra descripción general de la apertura de nuestro estudio, la funcionalidad básica y el trabajo con variables y conjuntos de datos. Estén atentos a futuros videos en los que exploraremos funciones y técnicas más avanzadas en RStudio.

Your First RStudio Session
Your First RStudio Session
  • 2020.08.16
  • www.youtube.com
Let's get started with R and RStudio! This vid shows some of the most basic functions that you'll need in order to start working with data in this environmen...
 

Histogramas y polígonos de frecuencia en R


Histogramas y polígonos de frecuencia en R

Hola a todos, en el video de hoy, crearemos histogramas y polígonos de frecuencia visualmente atractivos en R usando el comando qplot. Hay varias formas de crear gráficos en R, pero personalmente creo que el paquete ggplot2 produce las pantallas más atractivas. Para comenzar, usaremos el comando qplot en ggplot2.

Para nuestra demostración, trabajaremos con el conjunto de datos "fiel", que está integrado con R. Este conjunto de datos consta de 272 observaciones del tiempo de erupción y el tiempo de espera entre erupciones en minutos del géiser Old Faithful en el Parque Nacional de Yellowstone, EE. UU. .

Para trazar histogramas y polígonos de frecuencia para la variable "en espera", primero necesitaremos instalar el paquete ggplot2. Si aún no lo ha instalado, puede hacerlo escribiendo "install.packages('ggplot2')". Una vez instalado, debe cargar el paquete cada vez que inicie una nueva sesión escribiendo "library(ggplot2)".

Ahora centrémonos en el trazado. Para crear un histograma, especificamos la variable en el eje x usando el argumento "x", así: "qplot(x = esperando, data = fiel, geom = 'histograma')". Esto generará un histograma que se ve mejor que el producido por el comando hist de la base R.

Sin embargo, hay algunas mejoras que podemos hacer. Comencemos agregando etiquetas y un título principal al gráfico. Podemos usar los argumentos "xlab" para la etiqueta del eje x, "ylab" para la etiqueta del eje y y "main" para el título principal. Por ejemplo: "qplot(x = esperando, data = fiel, geom = 'histograma', xlab = 'Tiempo de espera', ylab = 'Frecuencia', main = 'Viejo fiel')".

A continuación, abordemos la apariencia de las barras. De forma predeterminada, puede parecer que las barras se ejecutan juntas. Para diferenciarlos, podemos agregar un color de borde usando el argumento "color", como "color = 'darkblue'". Además, podemos cambiar el color de relleno de las barras usando el argumento "relleno", como "relleno = 'azul claro'".

Ahora, si queremos crear un polígono de frecuencia en lugar de un histograma, podemos cambiar el argumento "geom" a "geom = 'freqpoly'". Esto trazará el polígono de frecuencia usando la misma variable en el eje x. Recuerde eliminar el argumento "rellenar" ya que no es aplicable en este caso.

También es posible que desee ajustar la cantidad de contenedores en el histograma utilizando el argumento "contenedores". De manera predeterminada, R usa 30 contenedores, pero puede cambiarlo a un valor diferente, como "contenedores = 20", para tener más o menos contenedores.

Finalmente, quiero mencionar una forma alternativa de especificar los datos. En lugar de usar la notación "$", puede especificar directamente el conjunto de datos usando el argumento "datos", como "qplot(x = esperando, datos = fieles, geom = 'histograma')". Esto puede ser útil cuando se trabaja con múltiples variables.

Eso concluye nuestro tutorial sobre la creación de histogramas y polígonos de frecuencia en R usando el comando qplot. Siéntase libre de explorar y experimentar con diferentes configuraciones para crear gráficos visualmente atractivos e informativos.

Histograms and Frequency Polygons in R
Histograms and Frequency Polygons in R
  • 2020.07.09
  • www.youtube.com
Let's learn about qplot(), the easiest way to produce beautiful graphics in R. This video is suitable for introductory statistics students - those with codin...
 

Diagramas de tallo y hojas


Diagramas de tallo y hojas

Hola a todos, en la discusión de hoy exploraremos el concepto de diagramas de tallo y hojas. Los diagramas de tallo y hojas ofrecen una forma simple e informativa de visualizar la distribución de una sola variable. Son especialmente efectivos para pequeños conjuntos de datos ya que retienen toda la información sin pérdida alguna durante la visualización. Para entenderlos mejor, vamos a sumergirnos en algunos ejemplos.

Un diagrama de tallo típico consta de una barra vertical, donde cada dígito a la derecha de la barra representa un punto de datos. Estos dígitos representan el último dígito significativo de cada observación, mientras que los valores a la izquierda de la barra representan los dígitos de mayor valor posicional. Por ejemplo, en la distribución dada, los valores iniciales son 27, 29 y 32.

Tenga en cuenta la clave en la parte superior, donde el punto decimal es un dígito a la derecha de la barra inclinada. Los diagramas de tallo y hojas no incorporan decimales directamente; en cambio, la clave indica el valor posicional. De esta forma, podemos diferenciar entre 27, 2,7 o 0,27.

Ahora, construyamos un diagrama de tallo y hojas para el siguiente conjunto de datos. Aquí, el lugar de las décimas servirá como hojas, y los dos dígitos a la izquierda del punto decimal serán los tallos. Por lo tanto, las primeras entradas serán 34,3, 34,9 y luego procederán a la siguiente raíz, 35/1 (el punto decimal se alinea con la barra oblicua).

La trama completa es la siguiente: 34.3 34/9 y así sucesivamente.

Es importante señalar que se incluyen todos los tallos entre el primero y el último, incluso si no hay hojas correspondientes. Esto nos permite observar la forma de los datos de manera imparcial. Por ejemplo, los valores 39,0 y 39,1 no están inmediatamente al lado de 37,5, dejando algo de espacio entre ellos.

Sin embargo, pueden surgir dos posibles dificultades al construir un diagrama de tallo y hojas. En primer lugar, si los datos contienen demasiadas cifras significativas, como en el ejemplo dado, usar el último dígito como hoja daría como resultado más de 400 tallos. Para evitar esto, se recomienda redondear los datos. En este caso, redondear a la centena más cercana proporciona un número razonable de tallos.

El segundo problema ocurre cuando hay demasiados puntos de datos por tallo, como se muestra en otro ejemplo. Para abordar esto, parece apropiado usar el lugar de las milésimas para las hojas y las décimas y centésimas para los tallos. Sin embargo, esto solo daría como resultado tres tallos (2.1, 2.2 y 2.3). Aunque técnicamente preciso, este gráfico no representa la forma de distribución deseada.

Para superar este problema, podemos dividir los tallos. Duplicando cada tallo y asignando la primera mitad a los dígitos finales (hojas) del 0 al 4 y la segunda mitad a los dígitos del 5 al 9, podemos obtener una mejor representación. Por ejemplo, la raíz 2.1 se dividiría en 2.10 a 2.14 (primera mitad) y 2.15 a 2.18 (segunda mitad). Esto resuelve la dificultad anterior y proporciona una vista más informativa de los datos.

Este detalle adicional puede ser revelador, como se ve en este ejemplo donde los tallos divididos resaltan una distribución simétrica, contrario a la visualización anterior que aparecía sesgada a la derecha. Los diagramas de tallo y hojas ofrecen información valiosa sobre las distribuciones de datos al tiempo que conservan toda la información esencial.

Stem-and-Leaf Plots
Stem-and-Leaf Plots
  • 2020.07.10
  • www.youtube.com
Stem plots are an easy way to visualize small-ish data sets.If this vid helps you, please help me a tiny bit by mashing that 'like' button. For more #rstats ...
 

Diagramas de tallo y hojas en R


Diagramas de tallo y hojas en R

¡Hola a todos! Hoy exploraremos el fascinante mundo de los diagramas de tallo y hojas. Un diagrama de tallo y hojas, también conocido como diagrama de tallo, es una representación visual de datos para una sola variable. Es especialmente adecuado para pequeños conjuntos de datos, ya que proporciona información sobre la forma, el centro y la distribución de los datos. Para mejorar nuestra comprensión, trabajaremos a través de dos ejemplos.

En primer lugar, profundicemos en el conjunto de datos "fiel" integrado. Este conjunto de datos consta de 272 observaciones de la duración de la erupción y el tiempo de espera del famoso géiser Old Faithful en los Estados Unidos. Todas las medidas se registran en segundos. En R, el comando básico para crear un diagrama de tallo se llama convenientemente "tallo". Necesitamos especificar el nombre de la variable que queremos analizar del conjunto de datos "fiel". Comencemos con la variable de tiempo de espera.

Observe la clave ubicada en la parte superior del diagrama de tallo. El punto decimal se coloca un dígito a la derecha de la barra. Al observar el diagrama de tallos, podemos identificar los primeros dos valores en el conjunto de datos, que son 43 y 45. En particular, R divide automáticamente los tallos para acomodar un rango de valores. Por ejemplo, los 40 se dividen en el rango de 40-44 en el primer tallo y 45-49 en el segundo tallo, y así sucesivamente.

Si deseamos anular la división automática de tallos, podemos utilizar el argumento de "escala". Este argumento nos permite ajustar la altura del diagrama de tallo especificando un factor de escala. En este caso, para evitar la división de tallos, podemos reducir a la mitad la altura de los tallos configurando "escala = 0,5". Aunque puede que no mejore el atractivo visual, sirve como una valiosa ilustración del uso del argumento de la "escala".

Ahora, pasemos al segundo ejemplo. Tenemos un conjunto de datos que comprende 20 observaciones de tiempos de reacción en milisegundos a un estímulo visual por parte de los participantes en un estudio de investigación. Como antes, comenzaremos con un diagrama de tallo básico. En este caso, el punto decimal está dos dígitos a la derecha de la barra inclinada. Por ejemplo, "3/1" representa "310".

Tenga en cuenta que se produce cierto redondeo en este gráfico. El valor mínimo en el conjunto de datos es en realidad 309, lo que genera una ligera pérdida de información. Al igual que en el ejemplo anterior, podemos modificar la configuración predeterminada mediante el comando "escala". Experimentemos con eso ajustando el factor de escala. Por ejemplo, establecer "escala = 0,5" puede proporcionar incluso menos intuición sobre la forma del conjunto de datos en comparación con nuestro diagrama de tallo original. Sin embargo, si duplicamos la longitud del diagrama de tallo, podemos comprender mejor la distribución de los datos.

En esta gráfica modificada, notará que los tallos han pasado de un solo dígito a dos dígitos. Por ejemplo, cuando leemos los primeros valores representados en el conjunto de datos, observamos 307 y 309. Además, la siguiente raíz enumerada es "32" en lugar de "31". Esta ocurrencia surge porque los datos que comienzan con "30" y "31" se combinan en una sola raíz. En consecuencia, existe una pérdida potencial de información. Sin embargo, las hojas continúan aumentando en orden.

Para evitar omitir valores en los tallos y capturar todos los datos sin omisiones, necesitamos ajustar aún más el factor de escala. En este caso, podemos hacer que el diagrama principal sea cinco veces más largo que la versión original. Esto nos permite lograr un gráfico de tallos que incluye todos los datos sin saltos de tallos, alineándose con nuestra representación deseada.

Si bien esta pantalla final abarca el conjunto de datos completo, puede que no sea la opción más óptima debido a su longitud excesiva. Se vuelve un desafío percibir la forma, los patrones y las tendencias subyacentes en el conjunto de datos. Teniendo en cuenta las alternativas, las mejores opciones para un diagrama de tallo claro e informativo son la que no anula la división del tallo o el diagrama de tallo original con el que comenzamos.

Al seleccionar cualquiera de estas opciones, logramos un equilibrio entre capturar la esencia de los datos y mantener una representación concisa y visualmente interpretable. Es importante recordar que el propósito de un diagrama de tallo y hojas es proporcionar intuición y comprensión de la distribución de datos, lo que nos permite identificar tendencias centrales, variaciones y valores atípicos.

Entonces, en conclusión, los diagramas de tallo y hojas son herramientas valiosas para analizar pequeños conjuntos de datos. Ofrecen un medio sencillo y visual para captar la forma, el centro y la distribución de los datos. Al experimentar con el factor de escala y la división de tallos, podemos ajustar la gráfica para cumplir con nuestros requisitos específicos. Sin embargo, es fundamental lograr un equilibrio entre capturar el conjunto de datos completo y mantener una representación clara que facilite el análisis y la interpretación de los datos.

Ahora que hemos explorado los diagramas de tallo y hojas a través de dos ejemplos, hemos obtenido información valiosa sobre su uso y personalización. Armados con este conocimiento, podemos aplicar diagramas de tallo y hojas a otros conjuntos de datos para desentrañar sus historias ocultas y tomar decisiones informadas basadas en el análisis de datos.

Stem-and-Leaf Plots in R
Stem-and-Leaf Plots in R
  • 2020.07.08
  • www.youtube.com
Stem-and-leaf plots are easy with R! If this vid helps you, please help me a tiny bit by mashing that 'like' button. For more #rstats joy, crush that 'subscr...
Razón de la queja: