Redes Neurais em IA e Deep Learning - página 14

 

Clase 22: Orientación exterior, Recuperación de la posición y la orientación, Ajuste del paquete, Forma del objeto



Clase 22: Orientación exterior, Recuperación de la posición y la orientación, Ajuste del paquete, Forma del objeto

La conferencia explora el concepto de orientación exterior en fotogrametría, donde la posición y orientación de las cámaras se determinan en un entorno 3D. El disertante analiza varios métodos para resolver problemas relacionados con la orientación exterior, como recuperar la posición y la orientación de un objeto utilizando la regla de los signos del triángulo y la regla del coseno. El video también explora el uso de cilindros y mallas generalizados para representar objetos 3D y alinearlos en la visión artificial. El disertante también presenta la imagen gaussiana extendida, un método de mapeo de objetos convexos de forma arbitraria a una esfera unitaria, y explica sus limitaciones en el manejo de objetos no convexos. Además, el video toca la optimización no lineal y su aplicación en la creación de modelos 3D precisos para fotogrametría.

La conferencia trata sobre la parametrización de curvas y el cálculo de la curvatura en escenarios 2D y 3D. En 2D, una curva convexa cerrada se puede representar en un círculo unitario mediante el ángulo eta y una densidad proporcional a la curvatura, que es la inversa del radio de la curva. La lección demuestra cómo integrar eta y usar las ecuaciones xy para obtener el objeto convexo para la imagen circular, y extiende la representación a otras formas como las elipses. En 3D, se introduce el concepto de mapeo de Gauss para conectar puntos en una superficie con puntos en una esfera unitaria, y se analiza la curvatura de las superficies, siendo la curvatura gaussiana una cantidad escalar única conveniente que mide la curvatura. La conferencia termina con una discusión sobre la relación de dos áreas, k y g, y cómo se relaciona con la curvatura de una esfera.

  • 00:00:00 En esta sección, se discute el concepto de orientación exterior en fotogrametría. Se demuestra a través de un dron equipado con una cámara que vuela sobre un terreno con un modelo detallado. La orientación exterior implica determinar dónde está la cámara del dron y en qué ángulo ve los objetos en el entorno 3D. Esto requiere seis grados de libertad, incluidos tres para el movimiento de rotación y tres para la traslación. El modelo requiere tres o más puntos en los datos de la imagen para proporcionar suficientes restricciones para resolver el problema.

  • 00:05:00 En esta sección, el disertante explica cómo encontrar la longitud de las patas del trípode para determinar R1, R2 y R3. Al construir rayos y calcular ángulos, los únicos factores desconocidos son las longitudes de los tres palos. Una vez que se encuentran estas longitudes, se puede descubrir P0 al intersecar las tres esferas. Existe la posibilidad de ambigüedad en la solución, pero esto se puede resolver utilizando una imagen especular o el orden cíclico de las imágenes. El disertante explica que los libros solían estar llenos de fórmulas para resolver este problema, pero ahora este proceso se puede lograr a través del ajuste del paquete.

  • 00:10:00 En esta sección, el disertante discute el uso de diferentes reglas y ecuaciones para resolver problemas relacionados con la orientación exterior, es decir, recuperar la posición y orientación de un objeto. El uso de estas reglas fue importante en la navegación y la topografía, pero no se usa tanto en estos días. La regla de los signos del triángulo y la regla del coseno son las únicas dos reglas necesarias, pero otras reglas pueden ser útiles por conveniencia. El problema discutido involucra tener un ángulo y una distancia en un triángulo y resolver para r1 y r2 usando tres ecuaciones no lineales. Una vez que se encuentra la posición del plano, se pueden construir vectores para determinar la orientación del objeto en relación con el sistema de coordenadas del suelo. Los métodos de mínimos cuadrados y RANSAC también se pueden usar para encontrar soluciones y tratar con valores atípicos.

  • 00:15:00 En esta sección, el disertante analiza la orientación exterior de las cámaras y cómo relacionar los tres vectores en el sistema de coordenadas de la cámara con los del sistema de coordenadas mundial a través de una matriz de rotación. El profesor explica que podemos representar este sistema de ecuaciones como una ecuación matricial de 3x3 para resolver la matriz de rotación, que podemos representar como una matriz ortonormal. Si tenemos más correspondencias, podemos usar mínimos cuadrados para minimizar el error en el plano de la imagen para obtener una solución más precisa. El disertante también menciona cómo se puede usar este método para el ajuste de paquetes, lo que implica que varias cámaras capturen el mismo objeto o escena desde diferentes posiciones, y cómo brinda una solución al problema relacionado que involucra a cientos de cámaras.

  • 00:20:00 En esta sección, el ponente discute el problema de la optimización no lineal en fotogrametría y sus soluciones a través de métodos como Levenberg Markart. En esta optimización, existen parámetros desconocidos del entorno, como los puntos del entorno, la ubicación de las cámaras, las propiedades de las cámaras y la distorsión radial. Usando muchas restricciones e imágenes, los investigadores han podido crear modelos 3D precisos de varios objetos, a veces incluso usando una sola cámara de dron que vuela sobre un volcán. El orador también menciona puntos interesantes en las imágenes, describe un recurso en línea de Lowe para identificarlos y toca brevemente el ajuste de paquetes, que es toda una industria dentro de la fotogrametría.

  • 00:25:00 En esta sección, el orador analiza varias representaciones de objetos 3D, incluidos poliedros y mallas. Los poliedros son relativamente fáciles de describir, pero para superficies curvas, las mallas son una mejor opción. Sin embargo, alinear mallas no tiene mucho sentido porque los vértices no tienen ninguna etiqueta o significado en particular. El ponente sugiere utilizar imágenes gaussianas extendidas, un recurso en línea que puede ayudar a recuperar la posición y orientación de objetos 3D.

  • 00:30:00 En esta sección de la videoconferencia, el orador explora el concepto de encontrar una buena representación de objetos en visión artificial que satisfaga ciertas condiciones de invariancia, como la traslación y la rotación. El orador discute las limitaciones con respecto a ciertos intentos de encontrar tal representación y pasa a examinar una representación en particular, el cilindro generalizado. Esta representación implica tomar la forma de un generador y moverla a lo largo de una línea para generar formas más complicadas con la propiedad de que la sección transversal es la misma en cualquier parte de la longitud. El orador discute cómo esta representación satisface ciertas condiciones de invariancia y puede ayudar con el reconocimiento y la alineación de objetos.

  • 00:35:00 En esta sección, el disertante analiza el uso de cilindros generalizados para representar objetos y cómo se pueden combinar para crear un modelo 3D. Sin embargo, este método tiene sus limitaciones, ya que es difícil lograr una representación única cuando hay infinitas formas de describir el mismo objeto. Por lo tanto, la lección vuelve a los poliedros como punto de partida para la representación 3D, utilizando una lista de vértices con coordenadas 3D y una estructura gráfica para describir las conexiones entre vértices y caras.

  • 00:40:00 En esta sección, el orador explica cómo representar un objeto dibujando vectores unitarios que son perpendiculares a las caras del objeto y luego multiplicándolos por las áreas. Esta representación puede ser única para objetos convexos o poliedros complejos, siempre que la suma de estos vectores sea cero. El hablante señala que esta representación es útil para el reconocimiento y alineación de objetos, más que para la reconstrucción. A pesar de ser una prueba no constructiva, la representación no es un elemento disuasorio, como explica el ponente.

  • 00:45:00 En esta sección de la conferencia, el orador analiza cómo aproximar un objeto no poliédrico, como una forma cilíndrica y cónica con una parte plana, cortándolo en rebanadas y construyendo un vector unitario considerando área. Luego, el orador construye una esfera unitaria y coloca masas en los puntos correspondientes de la esfera, que representan la superficie del objeto. La superficie cilíndrica corresponde a un gran círculo en la esfera, y la superficie cónica corresponde a un pequeño círculo en la esfera, y la placa al final corresponde a una gran masa en un solo punto. El orador explica que esta representación se puede utilizar de varias maneras para la tarea en cuestión.

  • 00:50:00 En esta sección, el disertante analiza el uso de la representación para alinear y reconocer objetos. La representación implica calcular una densidad de orientación para cada objeto, donde cada punto del objeto tiene un punto correspondiente en una esfera unitaria. El disertante explica que la representación es invariable a la traslación y rotación, por lo que es fácil de implementar. La densidad se puede utilizar para determinar la curvatura, donde la densidad alta corresponde a la curvatura baja y la densidad baja corresponde a la curvatura alta. Luego, el disertante presenta la imagen gaussiana extendida, que usa superficies normales para determinar el punto correspondiente en la esfera para un punto dado en el objeto. El disertante sugiere comenzar con una versión 2D para comprender el concepto antes de pasar a 3D.

  • 00:55:00 En esta sección, se explica un método de asignación de objetos convexos de forma arbitraria a una esfera unitaria. Gauss propuso este método, que asigna un punto del objeto al punto de la esfera con la misma dirección que la normal. Este método se usa porque es fácil determinar el polo norte celeste o mirar dónde está el sol y qué época del año es para medir el ángulo. Este mapeo es invertible, por lo que es posible la correspondencia entre el punto con la misma orientación de una esfera a un objeto. Sin embargo, la limitación de este método es que tiene algunos problemas con objetos no convexos.

  • 01:00:00 En esta sección, el disertante discute la parametrización de un círculo unitario en el plano por el ángulo eta y la densidad de una masa proporcional a la curvatura. La curvatura es la tasa de giro de una curva cerrada convexa, que es la tasa de cambio de dirección o la inversa del radio de la curva. La densidad es la inversa de la curvatura, y esta representación en un círculo unitario es única para una curva convexa cerrada en 2D. El ponente explica cómo dividir una curva en pequeñas facetas que contribuyen a la densidad de la curva, dando lugar al caso continuo de la representación de la curva en un círculo unitario. Aunque no hay inversión en 3D, el orador ilustra la inversión y la integración para explicar más las ideas.

  • 01:05:00 En esta sección, el disertante discute la integración de eta y el uso de las ecuaciones x e y para obtener el objeto convexo para la imagen circular en casos 2D. Sin embargo, el mismo proceso no se puede utilizar en escenarios 3D. Luego, el disertante introduce el concepto de centroide de la distribución de masa y señala que debe estar en el origen de una curva convexa cerrada. También explica la limitación de que solo ciertos tipos de distribuciones masivas son legítimas. Para ilustrar la teoría, el disertante usa un ejemplo de un círculo de radio r para determinar la curvatura.

  • 01:10:00 En esta sección de la conferencia, el profesor explica cómo calcular el radio de curvatura de un círculo y cualquier otra forma curva, incluso si no es circular. La curvatura es simplemente la inversa del radio de curvatura, siendo el radio el radio del círculo de mejor ajuste en una posición específica. El profesor demuestra cómo usar las matemáticas para representar una elipse como un círculo aplastado por simplicidad y explica que hay muchas formas diferentes de representar curvas matemáticamente. Sin embargo, el profesor señala que este método no funcionará para determinar la orientación porque la simetría es demasiado ambigua.

  • 01:15:00 En esta sección de la conferencia, el orador explica cómo representar círculos paramétricamente usando la ecuación (x/a)^2 + (y/b)^2 = 1. Ellos demuestran cómo generar un círculo usando este ecuación, que es una forma más conveniente que intentar todos los valores posibles de x e y. Luego, el orador explica cómo esta representación paramétrica se relaciona con la Tierra, que puede verse como una esfera aplastada en la dirección vertical. También cubren cómo mapear el círculo a la superficie de la esfera calculando la normal a la curva usando diferenciación, cambiando x e y, y cambiando el signo. El paso final consiste en hacer coincidir la dirección normal con la dirección de la tangente.

  • 01:20:00 En esta sección, se analiza la curvatura, o uno sobre k, de una elipse con respecto a eta, el ángulo en el círculo unitario. Los extremos, o valores máximo y mínimo, ocurren en eta igual a cero y pi sobre dos, que corresponden a los extremos de los semiejes. La curvatura varía continuamente y depende de los semiejes ay b. Una vez que se calcula la distribución continua de extremos para una elipse que no está alineada con un sistema de coordenadas, se puede rotar para que coincida con otra elipse para el reconocimiento de objetos. Si hay una buena coincidencia, el objeto es una elipse; de lo contrario, no lo es.

  • 01:25:00 En esta sección, el orador analiza la aplicación de la orientación exterior 2D y las operaciones de filtrado interesantes que se pueden realizar mediante convolución en círculos. Sin embargo, el enfoque principal está en la orientación exterior 3D, y se introduce el concepto de mapeo de Gauss para conectar puntos en la superficie con puntos en la esfera unitaria en función de la orientación normal de la superficie. Este concepto se extiende a las formas y se analiza la curvatura de las superficies, siendo la curvatura gaussiana una cantidad escalar única conveniente que mide la curvatura. Para superficies convexas, se considera una curvatura positiva, mientras que para superficies no convexas, la curvatura es negativa.

  • 01:30:00 En esta sección, el orador analiza la relación de dos áreas, k y g, que son 1 sobre r al cuadrado y r al cuadrado, respectivamente. La relación es consistente con la curvatura de una esfera, donde una esfera pequeña tiene una curvatura alta y viceversa para una esfera grande. Luego, la discusión toca la curvatura gaussiana y cómo está íntimamente relacionada con los cálculos que se realizan. También se menciona la curvatura integral, que se aplica a superficies que no son lisas y se analizará con más detalle en la siguiente lección sobre cómo se utiliza en el reconocimiento y la alineación.
Lecture 22: Exterior Orientation, Recovering Position & Orientation, Bundle Adjustment, Object Shape
Lecture 22: Exterior Orientation, Recovering Position & Orientation, Bundle Adjustment, Object Shape
  • 2022.06.08
  • www.youtube.com
MIT 6.801 Machine Vision, Fall 2020Instructor: Berthold HornView the complete course: https://ocw.mit.edu/6-801F20YouTube Playlist: https://www.youtube.com/p...
 

MIT 6.801 Visión artificial, otoño de 2020. Clase 23: Imagen gaussiana, sólidos de revolución, histogramas de dirección, poliedros regulares



Clase 23: Imagen Gaussiana, Sólidos de Revolución, Histogramas de Dirección, Poliedros Regulares

El disertante en este video analiza la imagen gaussiana extendida (EGI) como una representación de objetos 3D que no se pueden presentar como poliedros. El orador explica cómo la curvatura integral se relaciona con un parche en la superficie de una forma, discute el concepto de EGI en implementaciones discretas y abstractas, y explora la imagen gaussiana de varias formas, incluidos elipsoides, sólidos de revolución como cilindros y conos, y no convexos. objetos como tori. El EGI puede ayudar en la determinación de la actitud de un objeto en el espacio y puede usarse para la alineación con datos de visión artificial. También se analizan los métodos para encontrar la curvatura y la curvatura gaussiana de los sólidos de revolución, junto con los desafíos para calcular el EGI de objetos no convexos.

En la lección 23 de un curso de ciencias de la computación, el disertante explica cómo usar la imagen gaussiana para el reconocimiento y la alineación de objetos, así como también cómo crear un histograma de dirección para representar la forma real de un objeto en una biblioteca. También analizan los desafíos de agrupar histogramas, dividir una esfera y alinear un sólido de revolución, así como patrones y sólidos regulares. La conferencia brinda información sobre la representación de objetos utilizando la distribución de masa en una esfera, evitando elementos de superficie ocultos y comprendiendo el efecto de la curvatura en la distribución de masa. También analiza las ventajas y desventajas de usar diferentes formas para agrupar histogramas y la importancia de patrones y formas regulares para una buena calidad.

  • 00:00:00 En esta sección, la imagen gaussiana extendida se analiza como una representación de objetos 3D que no se pueden presentar como poliedros. La imagen gaussiana es una correspondencia entre la superficie del objeto y los puntos de la esfera unitaria basada en la igualdad de las superficies normales. Al trazar la inversa de la curvatura gaussiana en función de la posición en la esfera, se puede usar para definir qué parte de la superficie tiene una normal que apunta en esa dirección. La integración de la curvatura gaussiana sobre un parche en el objeto da como resultado el área del parche correspondiente en la esfera, que se llama curvatura integral. Por el contrario, la integración de la curvatura gaussiana sobre k en la esfera da como resultado el área del objeto que corresponde a eso, que es una cantidad más importante.

  • 00:05:00 En esta sección, el orador analiza el concepto de curvatura integral y cómo se relaciona con un parche en la superficie de una forma. Explican que al tomar la integral de curvatura sobre un área, se puede capturar el cambio total de orientación en ese parche, y esto es lo que calcula la integral. Luego, el orador aplica este concepto a un cubo y explica que la curvatura integral de la esquina de un cubo es pi sobre dos. También discuten la distribución en la esfera (referida como "g") que depende de la orientación y cómo puede tener algunas restricciones, similares a las que se ven en los poliedros.

  • 00:10:00 En esta sección de la conferencia, el orador analiza el área aparente de un objeto convexo cuando se ve desde una dirección específica, según el coseno del ángulo. El orador explica que solo las facetas con un producto escalar positivo son visibles desde ese ángulo y observa que la suma de todas las facetas es cero. Esto lleva a la conclusión de que el centroide está en el origen y que las egis son distribuciones en la esfera unitaria con centro de masa en el centro.

  • 00:15:00 En esta sección, el concepto de EGI (Imagen gaussiana extendida) se analiza más en implementaciones abstractas y discretas. El centroide de EGI corresponde a la superficie del objeto que se cierra y el origen de la esfera. El EGI también se puede calcular exactamente para objetos definidos geométricamente, como el ejemplo de una esfera donde el EGI es simplemente R al cuadrado debido a la naturaleza simétrica. Los objetos más complejos, como un elipsoide, se pueden representar a través de la ecuación implícita de la superficie, lo que no es práctico para generar visualizaciones o integrar sobre la superficie, pero se pueden utilizar formas alternativas de describir la misma superficie.

  • 00:20:00 En esta sección, el disertante analiza un método para obtener una descripción paramétrica de una superficie usando theta y phi como parámetros. Al derivar la ecuación con respecto a estos parámetros, obtiene tangentes, que luego puede usar para calcular la superficie normal. También muestra cómo definir la curvatura. Luego, el disertante continúa explicando una forma de parametrizar la esfera unitaria utilizando coordenadas de latitud y longitud. Esto implica encontrar la magnitud del vector que es normal a la esfera unitaria, así como definir otro vector. La conferencia proporciona una explicación detallada del proceso de derivación.

  • 00:25:00 En esta sección, se explora el concepto de la imagen gaussiana extendida de un elipsoide. La curvatura en términos de la normal implica encontrar los puntos de intersección de los semiejes en la superficie del objeto. Aunque la respuesta no es a lo que se refieren las coordenadas theta-phi, se utiliza para el reconocimiento y la orientación. Hay máximos y mínimos dentro del modelo, y están distribuidos en la esfera. Hay tres direcciones ortogonales que son simétricas al otro lado. Con datos experimentales, la imagen gaussiana puede ayudar a determinar la actitud de un objeto en el espacio.

  • 00:30:00 En esta sección de la lección, la atención se centra en los sólidos de revolución, que son objetos que son más fáciles de calcular que formas más complicadas como los elipsoides. Los sólidos de revolución, como cilindros, conos, esferas, hiperboloides de una o dos hojas, tienen un generador que gira alrededor de un eje para producir el objeto, que luego se puede representar en una esfera para calcular el egi. Se consideran la superficie normal del objeto y el ángulo con el ecuador, y la banda del objeto se usa para obtener la banda correspondiente en la esfera, lo que reduce la forma 3D del objeto a 2D. El área de la banda del objeto es 2 pi multiplicado por el radio del objeto multiplicado por el ancho de la banda, mientras que el radio de la esfera depende de la latitud donde cuanto mayor sea la latitud, menor será el radio.

  • 00:35:00 En esta sección, el disertante analiza cómo encontrar la curvatura de un sólido de revolución usando la fórmula k=cos(eta)/r*kg, donde kg es la curvatura del generador. El disertante explica que la curvatura es la tasa de cambio de la dirección de la superficie normal a medida que se mueve a lo largo del arco, que es la curvatura 2D del generador. El disertante también muestra que la fórmula tiene diferentes versiones dependiendo de si la curva está dada de forma implícita o en función de s o de la altura z. Finalmente, la lección proporciona una fórmula conveniente para encontrar la curvatura de un sólido de revolución cuando se da r como una función de s.

  • 00:40:00 En esta sección, el orador describe dos formas de obtener la curvatura gaussiana de un sólido de revolución. El primer método consiste en definir el generador de curvas como r en función de la longitud del arco, con una de las 12 formas más comunes de especificar una curva. El segundo método analiza la otra variable especificada, z, y usa términos trigonométricos para obtener la curvatura. El orador muestra el proceso paso a paso de diferenciar con respecto a z y cómo se relaciona con los términos tangente y secante. Se proporciona la fórmula final para la curvatura gaussiana, que termina siendo un poco más complicada que el primer método, pero sigue siendo útil para los casos en los que la curva del generador se da como r en función de z.

  • 00:45:00 En esta sección, el orador analiza cómo generar imágenes gaussianas extendidas de sólidos de revolución y trabaja a través de un ejemplo usando un toro o una forma de dona. Explican que en el caso de objetos no convexos como el toroide, puede haber más de un punto en el objeto con la misma orientación de la superficie, lo que hace que el mapeo no sea invertible. El toro tiene dos puntos de este tipo, uno convexo y el otro en forma de silla de montar, lo que presenta su propio conjunto de desafíos.

  • 00:50:00 En esta sección, el orador analiza el cálculo de la imagen gaussiana extendida de un objeto no convexo usando fórmulas para el radio y la segunda derivada. Observan que la curvatura de la superficie cambia de positiva a negativa en ciertos puntos, dividiendo el objeto en dos partes con diferentes curvaturas. El disertante propone dos opciones para lidiar con esto, ya sea calculando la curvatura de Gauss en todos los puntos con la misma orientación de la superficie y sumándolas, o usando una fórmula para la suma de las curvaturas de Gauss que cancela algunos términos.

  • 00:55:00 En esta sección, el orador analiza la imagen gaussiana extendida (EGI) y cómo se puede usar para la alineación. El orador explica que el EGI de un toro varía suavemente y tiene una singularidad en el polo, que puede visualizarse incrustando la esfera unitaria en un cilindro unitario. Esta variación se puede utilizar para alinear el modelo del objeto con datos de visión artificial, al juntar las dos esferas con una distribución que varía suavemente, pero tiene un rápido crecimiento hacia los polos. Sin embargo, esto no da la actitud completa, ya que el objeto aún puede girar alrededor del eje sin cambiar nada, lo cual es apropiado para un sólido de revolución. El orador también menciona cómo la gente ha tratado de reconstruir iterativamente el EGI para el caso poliédrico discreto.

  • 01:00:00 En esta sección, el ponente explica que reconstruir un objeto a partir de su imagen gaussiana es un problema complicado que requeriría un gran proceso de búsqueda u optimización, con las distancias de todos los planos desde el origen como parámetros. Sin embargo, este enfoque no es necesario para el reconocimiento y la alineación mediante imágenes gaussianas, ya que el método implica comparar distribuciones en la esfera y rotar una esfera con respecto a la otra hasta obtener una buena coincidencia. El ponente también introduce una nueva forma de entender las bandas de la esfera, que permite el cálculo de la curvatura y una descripción del efecto de aplastamiento cerca de los polos.

  • 01:05:00 En esta sección, el disertante analiza el área de un toro y cómo se relaciona con la imagen gaussiana. Explica que dos donas de diferentes formas pero de la misma área tienen el mismo EGI, lo cual es una desventaja de permitir objetos no convexos. Esta pérdida de singularidad puede o no importar en una aplicación, pero muestra que cuando extendemos esto a objetos no convexos, las cosas no son tan agradables. Además, hay problemas con los elementos de superficie ocultos en objetos no convexos y se pueden introducir pequeños errores al construir el EGI utilizando datos numéricos.

  • 01:10:00 En esta sección, el disertante analiza cómo tratar numéricamente con objetos reales imperfectos y ponerlos en una biblioteca basada en su forma real. Explican cómo calcular la superficie normal y el área de un parche triangular en la superficie de un objeto utilizando datos estéreo fotométricos o modelos de malla. Luego describen cómo crear una distribución de masa en una esfera basada en la superficie normal, que representa un histograma de dirección. Este método proporciona una manera de comprender el efecto de la curvatura en la distribución de masa y por qué es beneficioso agregar contribuciones de masa en lugar de restarlas. En general, esta técnica permite la creación de histogramas de dirección y la representación de objetos en una biblioteca en función de su forma real.

  • 01:15:00 En esta sección, el orador analiza el concepto de histogramas de dirección, que implican dividir la esfera en cuadros y contar las ocurrencias dentro de cada celda. El método se usa para indicar una fuerte concentración en una dirección particular en cosas como fibras musculares paralelas y direcciones de flujo de agua en el cerebro. También se aplica en áreas tales como imágenes de tumores, donde una distribución uniforme en los histogramas de orientación indica un tejido irregular. Las desventajas de usar cuadrados para dividir el plano se explican con formas más redondeadas, como un hexágono, que son más ventajosas que los triángulos.

  • 01:20:00 En esta sección, el disertante analiza los desafíos de elegir celdas para agrupar histogramas y cómo tener en cuenta el ruido aleatorio al comparar histogramas. Se introduce el concepto de tener un segundo histograma que se desplaza, pero esta solución se vuelve más costosa a medida que aumenta la dimensionalidad. Otra solución es convolucionar la distribución con una función de distribución, y esto puede ser más económico que la solución anterior. Luego, la conferencia aborda el problema de dividir una esfera y las propiedades deseadas de una teselación, como tener áreas iguales, formas iguales, formas redondeadas, un patrón regular y facilidad de agrupamiento. Se observa que estas propiedades deseadas son fáciles de lograr en casos planos, pero se vuelven más complicadas en una superficie curva como una esfera.

  • 01:25:00 En esta sección, el disertante analiza el problema de alinear un sólido de revolución consigo mismo después de la rotación y la ventaja de la alineación en la rotación. Explica cómo se puede dividir una esfera en doce secciones proyectando un dodecaedro sobre su superficie, y cada una de estas secciones se puede representar con un número. Si se gira la esfera, los números que representan las secciones simplemente se permutarán y no habrá pérdida de calidad. Sin embargo, si las secciones se superponen después de la rotación, sería necesario redistribuir el peso en cada sección, lo que provocaría una pérdida de calidad. Luego, el disertante menciona brevemente los patrones regulares y los sólidos regulares como puntos de partida para los histogramas de orientación, pero señala que esto se discutirá con más detalle en la próxima lección.
Lecture 23: Gaussian Image, Solids of Revolution, Direction Histograms, Regular Polyhedra
Lecture 23: Gaussian Image, Solids of Revolution, Direction Histograms, Regular Polyhedra
  • 2022.06.08
  • www.youtube.com
MIT 6.801 Machine Vision, Fall 2020Instructor: Berthold HornView the complete course: https://ocw.mit.edu/6-801F20YouTube Playlist: https://www.youtube.com/p...
 

MIT 6.0002 Introducción al pensamiento computacional y la ciencia de datos, otoño de 2016. Clase 1. Introducción, problemas de optimización



1. Introducción, problemas de optimización (MIT 6.0002 Introducción al pensamiento computacional y ciencia de datos)

Este video presenta el curso, "1. Introducción, problemas de optimización (MIT 6.0002 Introducción al pensamiento computacional y la ciencia de datos)", y analiza los requisitos previos y los objetivos del curso. El enfoque principal del curso es el uso de modelos computacionales para comprender el mundo y predecir eventos futuros. El video analiza los modelos de optimización, que son una forma sencilla de resolver problemas que involucran objetivos y restricciones. El video también analiza un problema de optimización específico llamado problema de la mochila, que es un problema en el que una persona tiene que elegir qué objetos tomar de una cantidad finita de objetos. El video analiza cómo optimizar un menú, utilizando un algoritmo codicioso. El video también analiza un algoritmo eficiente para asignar recursos, llamado "codicioso por valor".

  • 00:00:00 Este video presenta el curso, "1. Introducción, problemas de optimización (MIT 6.0002 Introducción al pensamiento computacional y la ciencia de datos)", y analiza los requisitos previos y los objetivos del curso. El enfoque principal del curso es el uso de modelos computacionales para comprender el mundo y predecir eventos futuros.

  • 00:05:00 El video analiza los modelos de optimización, que son una forma sencilla de resolver problemas que involucran objetivos y restricciones. El video también analiza un problema de optimización específico llamado problema de la mochila, que es un problema en el que una persona tiene que elegir qué objetos tomar de una cantidad finita de objetos.

  • 00:10:00 En este video, se explica el problema de la mochila continua o fraccional, y se describe un algoritmo codicioso. El problema de tomar primero lo mejor es más complicado y se muestra una formalización del problema.

  • 00:15:00 El algoritmo codicioso resuelve un problema de optimización poniendo el mejor artículo disponible en la mochila cuando se llena. Este algoritmo es eficiente, pero no se garantiza que encuentre una solución que sea la mejor posible.

  • 00:20:00 El video analiza cómo optimizar un menú, utilizando un algoritmo codicioso. El algoritmo se implementa en una clase denominada Alimentos, que tiene funciones de obtención de valor, obtención de densidad de costos y representación de cadenas. El menú de creación de funciones toma una lista de nombres y una lista de valores de igual longitud, y usa la función clave para determinar qué se entiende por "mejor".

  • 00:25:00 Este video analiza un algoritmo eficiente para asignar recursos, llamado "codicioso por valor". El algoritmo tiene en cuenta el peso y las demandas de un recurso, y puede asignar recursos de manera eficiente para grandes cantidades.

  • 00:30:00 El video analiza el uso de expresiones lambda para crear una función anónima. Explica que las expresiones lambda se pueden usar para crear una función que evalúa una expresión en una secuencia de parámetros. También muestra cómo llamar a la función de una expresión lambda.

  • 00:35:00 El video analiza cómo los algoritmos codiciosos pueden conducir a diferentes resultados según el orden de clasificación, y cómo esto puede ser un problema con la escalada. También muestra cómo modificar un algoritmo codicioso para obtener siempre el mejor resultado.

  • 00:40:00 El video analiza cómo el algoritmo codicioso a veces puede conducir a mejores soluciones que el algoritmo más óptimo, pero que consume más tiempo.
1. Introduction, Optimization Problems (MIT 6.0002 Intro to Computational Thinking and Data Science)
1. Introduction, Optimization Problems (MIT 6.0002 Intro to Computational Thinking and Data Science)
  • 2017.05.19
  • www.youtube.com
MIT 6.0002 Introduction to Computational Thinking and Data Science, Fall 2016View the complete course: http://ocw.mit.edu/6-0002F16Instructor: John GuttagPro...
 

Clase 2. Problemas de Optimización



2. Problemas de optimización

Este video explica cómo resolver problemas de optimización utilizando una técnica llamada programación dinámica. El ejemplo utilizado es el problema de la mochila, en el que diferentes opciones en cada nodo dan como resultado la resolución del mismo problema. Se analiza la implementación memo de la función maxVal y se muestra que el número de llamadas crece lentamente para la solución de programación dinámica.

  • 00:00:00 El video analiza los pros y los contras de los algoritmos codiciosos y brinda un ejemplo de cómo se puede usar un árbol de búsqueda para resolver un problema.

  • 00:05:00 El video analiza el recorrido de un árbol, explicando que el nodo más a la izquierda tiene la mayor cantidad de elementos posibles y el nodo más a la derecha tiene la menor cantidad de elementos posibles. El algoritmo es sencillo y asintótico en complejidad.

  • 00:10:00 Este video explica cómo funciona el algoritmo recursivo para resolver problemas de optimización. El algoritmo comienza examinando la rama izquierda del árbol si no se puede tomar el elemento actual, y luego pasa a la rama derecha si se puede. Si no se puede tomar ninguna rama, el algoritmo devuelve el valor máximo de la lista toConsider.

  • 00:15:00 En este video, el autor muestra cómo mejorar el rendimiento de un algoritmo de búsqueda mediante el uso de un algoritmo verdaderamente óptimo.

  • 00:20:00 En este video, aprendemos sobre problemas de optimización y cómo se pueden resolver usando una técnica llamada programación dinámica. La programación dinámica es una forma de resolver problemas de optimización que se basa en la comprensión matemática de cómo se acumulan los datos a lo largo del tiempo.

  • 00:25:00 La programación dinámica es un método para evitar repetir los mismos cálculos varias veces. Se utiliza en el problema de Fibonacci, en el que la respuesta a un número de Fibonacci se calcula tomando los dos números de Fibonacci anteriores y sumándolos.

  • 00:30:00 En este video, el autor analiza los beneficios de usar la memorización, una técnica que almacena los resultados en una tabla en lugar de calcularlos recursivamente. Muestran cómo se puede usar esto para mejorar el rendimiento en una función de Fibonacci resolviendo primero subproblemas más pequeños y luego combinando los resultados.

  • 00:35:00 El video analiza problemas de optimización y cómo, en algunos casos, se pueden encontrar soluciones resolviendo el mismo problema varias veces. También analiza el problema de la mochila, que se muestra que tiene una subestructura óptima, es decir, dos nodos que resuelven el mismo problema. Sin embargo, el video también señala que, en algunos casos, las soluciones a los problemas se pueden encontrar resolviendo problemas diferentes; en este caso, dos nodos que resuelven el mismo problema tomando diferentes cervezas de un menú.

  • 00:40:00 El video analiza cómo se pueden abordar los problemas de optimización utilizando una solución de programación dinámica. El árbol en el ejemplo muestra cómo las diferentes opciones en cada nodo (qué tomar y qué no tomar) dan como resultado que se resuelva el mismo problema, aunque las soluciones individuales pueden parecer diferentes. Se analiza la implementación memo de la función maxVal y se muestra que el número de llamadas crece lentamente para la solución de programación dinámica.

  • 00:45:00 Este video analiza cómo los problemas de optimización pueden ser difíciles de resolver, pero la programación dinámica a menudo puede proporcionar una solución adecuada, aunque no óptima.
2. Optimization Problems
2. Optimization Problems
  • 2017.05.19
  • www.youtube.com
MIT 6.0002 Introduction to Computational Thinking and Data Science, Fall 2016View the complete course: http://ocw.mit.edu/6-0002F16Instructor: John GuttagPro...
 

Lección 3. Modelos teóricos de grafos



3. Modelos teóricos de grafos

Este video explica cómo se puede usar la teoría de grafos para comprender y resolver problemas relacionados con las redes. El video introduce el concepto de un gráfico y explica cómo usar la teoría de gráficos para encontrar el camino más corto entre dos puntos. El video también demuestra cómo usar la teoría de grafos para optimizar una red y explica cómo se puede aplicar el modelo a problemas del mundo real.

  • 00:00:00 Este video da lecciones sobre teoría de grafos, que es una rama de las matemáticas que estudia las estructuras y la dinámica de las redes. La teoría de grafos permite diseñar y estudiar modelos de optimización más fácilmente, así como comprender cómo fluyen los datos a través de las redes. La teoría de grafos se divide en dos categorías: gráficos y gráficos con bordes. Los gráficos suelen tener dos elementos, nodos y bordes. Los nodos representan puntos de datos y los bordes representan las conexiones entre ellos. Los gráficos con bordes son más comunes y se utilizan para modelar una relación entre dos entidades. Veremos dos formas de crear grafos con aristas: no dirigidas y dirigidas. También exploraremos cómo agregar información a los bordes, como pesos. Por último, se presentará un método de navegación a través de gráficos, conocido como minimización de costos o ruta más corta.

  • 00:05:00 Los gráficos se componen de bordes o arcos, y se pueden usar para modelar relaciones entre entidades. Se pueden utilizar en redes de transporte, redes financieras y redes sociales, entre otras cosas.

  • 00:10:00 Este video presenta la teoría de grafos, que es un campo matemático utilizado para comprender las redes de relaciones. Los gráficos se pueden usar para representar situaciones del mundo real y se pueden usar para inferir información como el camino más corto y la secuencia de interacciones entre los elementos de una red. Este video muestra cómo usar la teoría de grafos para resolver problemas como los desplazamientos y la navegación.

  • 00:15:00 La teoría de grafos es un campo de las matemáticas que se ocupa de las estructuras e interacciones de las redes. Este video sigue una explicación simple de cómo se usa la teoría de grafos para resolver problemas de ruta más corta.

  • 00:20:00 El autor presenta un modelo teórico de gráficos, que es un gráfico dirigido con nodos y aristas, y una forma de almacenar nodos y aristas en un diccionario. El modelo permite una fácil representación de un gráfico, pero no es la forma más eficiente de hacerlo. El autor presenta una lista de adyacencia, que es una forma más eficiente de representar un gráfico, y la usa para mostrar cómo agregar un borde y obtener todos los elementos secundarios de un nodo.

  • 00:25:00 Este video explica cómo crear, buscar e imprimir gráficos utilizando el lenguaje de programación Python. Los gráficos se pueden crear como una subclase de la clase de dígrafos, lo que permite gráficos dirigidos y no dirigidos. El video muestra un ejemplo de cómo agregar un borde entre dos nodos en un gráfico.

  • 00:30:00 El video presenta tres modelos teóricos de grafos: problemas de ruta más corta, navegación de ruta y redes de comunicación. El primer modelo, problemas de ruta más corta, es un problema de navegación donde el objetivo es encontrar una ruta entre dos ciudades. El segundo modelo, navegación de rutas, es un problema donde el objetivo es encontrar un camino entre dos puntos en un gráfico. El tercer modelo, redes de comunicación, es un problema donde el objetivo es encontrar el camino más corto entre dos nodos en una red. El video presenta dos algoritmos para resolver problemas de la ruta más corta: búsqueda primero en profundidad y divide y vencerás.

  • 00:35:00 En la primera búsqueda profunda, el algoritmo comienza con el nodo de origen y sigue el primer borde hacia afuera, verificando si está en la ubicación correcta. De lo contrario, el algoritmo sigue el primer borde fuera del nodo y continúa siguiendo los bordes en ese orden hasta que encuentra el nodo objetivo o se queda sin opciones. En el ejemplo dado, el algoritmo comienza en el nodo de origen y sigue el primer camino hacia abajo del árbol de búsqueda, imprimiendo información a lo largo del camino. Si el nodo no está en la ruta, el algoritmo sigue la primera ruta fuera del nodo y explora recursivamente los elementos secundarios del nodo hasta que encuentra una ruta hacia el nodo objetivo.

  • 00:40:00 Este video presenta el modelo teórico de grafos, que es una forma de entender cómo se pueden encontrar soluciones a los problemas. El modelo se basa en la idea de que una ruta es una lista de nodos, y que la búsqueda en profundidad se puede utilizar para encontrar una solución. El modelo se ilustra con dos ejemplos. El primer ejemplo muestra cómo encontrar una ruta de Boston a Chicago y el segundo ejemplo muestra cómo encontrar una ruta de Phoenix a Nueva York. Después de presentar el modelo, el video demuestra cómo usar la búsqueda en profundidad para encontrar una solución a un problema.

  • 00:45:00 Este video demuestra cómo los modelos de teoría de grafos se pueden usar para resolver problemas de optimización. El video primero muestra cómo se puede modificar un algoritmo de búsqueda primero en profundidad para minimizar la suma de pesos en los bordes, y luego demuestra cómo se puede usar la búsqueda primero en amplitud para encontrar la ruta ponderada más corta.

  • 00:50:00 Este video presenta modelos de teoría de grafos, que se utilizan para estudiar las relaciones entre variables.
3. Graph-theoretic Models
3. Graph-theoretic Models
  • 2017.05.19
  • www.youtube.com
MIT 6.0002 Introduction to Computational Thinking and Data Science, Fall 2016View the complete course: http://ocw.mit.edu/6-0002F16Instructor: Eric GrimsonPr...
 

Lección 4. Pensamiento estocástico



4. Pensamiento estocástico

El Prof. Guttag presenta los procesos estocásticos y la teoría básica de la probabilidad.

En este video, el orador analiza la diferencia en los cálculos de probabilidad entre el problema de dos personas que comparten un cumpleaños y el problema de tres personas que comparten un cumpleaños. Él explica que el problema complementario para dos personas es simple, ya que solo involucra la pregunta de si todos los cumpleaños son diferentes. Sin embargo, para tres personas, el problema complementario implica una disyuntiva complicada con muchas posibilidades, lo que hace que las matemáticas sean mucho más complejas. El orador muestra cómo se pueden usar las simulaciones para responder fácilmente a estas preguntas probabilísticas en lugar de depender de cálculos con lápiz y papel. También analiza la suposición de que todos los cumpleaños son igualmente probables y cómo la distribución de cumpleaños en los EE. UU. no es uniforme, con ciertas fechas que son más comunes o poco comunes que otras. Finalmente, el orador muestra a la audiencia un mapa de calor de los cumpleaños de los estudiantes del MIT y concluye que ajustar el modelo de simulación es más fácil que ajustar el modelo analítico para dar cuenta de una distribución no uniforme de las fechas de nacimiento.

4. Stochastic Thinking
4. Stochastic Thinking
  • 2017.05.19
  • www.youtube.com
MIT 6.0002 Introduction to Computational Thinking and Data Science, Fall 2016View the complete course: http://ocw.mit.edu/6-0002F16Instructor: John GuttagPro...
 

Clase 5. Paseos aleatorios



5. Paseos aleatorios

Este video sobre paseos aleatorios abarca la importancia de estudiarlos y comprender cómo la simulación puede ayudar con conceptos de programación en disciplinas científicas y sociales. El hablante comienza ilustrando cómo el número de pasos que da un borracho afecta su distancia desde el origen. Luego, el video presenta la caminata aleatoria sesgada y el borracho masoquista, y muestra cómo funciona el proceso de simulación e iteración utilizando comandos de trazado simples. El orador enfatiza la importancia de construir simulaciones de forma incremental y realizar controles de cordura para garantizar su precisión, y concluye discutiendo el arte de crear diferentes tipos de gráficos para representar datos. El video también presenta WormField como una forma de proporcionar más variación y complejidad en la simulación.

  • 00:00:00 En esta sección, Guttag explica por qué son importantes los paseos aleatorios y presenta el concepto de paseo de un borracho como ejemplo. Se plantea la cuestión de si existe una relación interesante entre el número de pasos que da un borracho y la distancia que los separa del origen. Para ilustrar esto, proporciona un pequeño ejemplo y le pide a la audiencia que realice una encuesta sobre si cuantos más pasos dé el borracho, más lejos es probable que esté, o si no importa cuántos pasos dé. Guttag también menciona que estudiar caminatas aleatorias es útil para modelar procesos en varias disciplinas científicas y sociales, y para demostrar cómo la simulación puede ayudar a comprender el mundo que nos rodea mientras enseña temas importantes relacionados con la programación.

  • 00:05:00 En esta sección del video sobre caminatas aleatorias, el locutor comienza analizando la distancia promedio que una persona borracha estaría desde su punto de partida después de dar uno o dos pasos. Usando el teorema de Pitágoras, determinan que, en promedio, la persona borracha estaría más lejos de su punto de partida después de dar dos pasos. Luego pasan a analizar lo que sucede después de 100.000 pasos y recurren a una simulación para calcular la distancia promedio desde el origen de n caminatas. Para prepararse para la simulación, el orador define algunas abstracciones útiles, como la ubicación, el campo y la persona borracha. La clase Drunk sirve como una clase base que se utiliza para definir dos subclases, incluida la subclase de borrachos habitual.

  • 00:10:00 En esta sección, aprendemos sobre el camino aleatorio sesgado, donde un borracho puede dar un paso aumentando y, disminuyendo y, aumentando x o disminuyendo x, y regresando solo uno al azar. El borracho masoquista es una subclase del borracho habitual y prefiere moverse hacia el norte, pero da 1,1 pasos en comparación con un paso hacia adelante y solo 9/10 de un paso cuando se mueve hacia el sur. Aunque esto sugiere una caminata aleatoria sesgada, existe inmutabilidad ya que los borrachos y las ubicaciones permanecen sin cambios. Sin embargo, los campos son mutables porque se asignan borrachos a su ubicación en el campo a través de un diccionario. Para verificar si el borracho está allí o para obtener la ubicación del campo, usamos mensajes de error de valor. Al llamar a moveDrunk, las distancias en x e y se obtienen de la función takeStep, y self.drunk se asigna a esta nueva distancia.

  • 00:15:00 En esta sección, el presentador explica cómo simular caminatas aleatorias y cómo usarlas para responder preguntas sobre cómo se mueven los diferentes tipos de borrachos. La simulación consiste en crear un campo y agregarle borrachos, donde los borrachos dan diferentes números de pasos aleatorios en el campo. El presentador muestra cómo simular una sola caminata y luego muestra cómo simular múltiples caminatas para responder preguntas sobre el comportamiento de los borrachos. Promediando las distancias, mirando la media, el mínimo o el máximo, podemos ver a qué distancia del origen acaban los diferentes tipos de borrachos. Luego, el presentador analiza los resultados de la simulación y pregunta si parecen plausibles.

  • 00:20:00 En esta sección, el profesor John Guttag enfatiza la importancia de una verificación de cordura cada vez que se construye una simulación. Ejecuta una verificación de cordura de caso simple utilizando el ejemplo de un hombre borracho que da pasos, lo que revela un error de programación en el código de simulación que no fue evidente de inmediato. Después de corregir el error, Guttag ejecuta la simulación nuevamente para verificar los resultados y asegura a los espectadores que pasar una verificación de cordura no garantiza que la simulación sea correcta, pero es una buena indicación de que está en buen estado.

  • 00:25:00 En esta sección, el hablante describe un experimento que compara al borracho normal con un borracho masoquista, donde el primero da pasos al azar, y la versión masoquista da pasos en la dirección opuesta a la dirección anterior con más frecuencia. El experimento ilustra que el borracho masoquista progresa considerablemente más que el borracho normal, lo que significa que su movimiento está sesgado en una dirección. Para entender por qué, el orador usa Pylab para trazar la línea de tendencia para cada tipo de borracho para visualizar la distancia a lo largo del tiempo, con PyLab combinando bibliotecas NumPy, SciPy y MatPlotLib para brindar capacidades de trazado similares a MATLAB. El orador también explica la sintaxis básica de la función plot y sus argumentos para Python.

  • 00:30:00 En esta sección, el orador demuestra cómo producir diagramas usando PyLab, con la ayuda de diferentes argumentos que se pueden usar con las funciones de diagrama y leyenda. También expresa su opinión de que dominar el arte de hacer tramas es una habilidad valiosa. Además, el orador investiga y muestra gráficos de las tendencias en la distancia entre un borracho habitual y un borracho masoquista. El orador descubre que el borracho habitual se mueve aproximadamente a la raíz cuadrada del número de pasos, mientras que la tendencia del borracho masoquista en distancia se mueve a una velocidad de numPasos por 0,05. El orador concluye demostrando un nuevo tipo de gráfico, donde los puntos de datos están desconectados por líneas.

  • 00:35:00 En esta sección, el orador analiza cómo la visualización puede proporcionar información sobre los datos. Al trazar las ubicaciones al final de los paseos aleatorios, demuestra cómo se comportan los diferentes tipos de borrachos y las diferencias entre ellos. Él enfatiza la importancia de usar gráficos para comprender los datos en lugar de solo presentar hojas de cálculo de puntos finales. El orador también presenta OddField, una subclase de Field con agujeros de gusano que teletransportan la ubicación de un borracho a un lugar diferente. Crea un diccionario de agujeros de gusano con ubicaciones aleatorias a las que se puede teletransportar al borracho, lo que permite una mayor variabilidad en la simulación.

  • 00:40:00 En esta sección del video, el instructor explica cómo se usan los paseos aleatorios para simular el movimiento de un borracho y cómo los agujeros de gusano producen efectos profundos sobre dónde terminan los borrachos. También enfatiza la importancia de construir la simulación de forma incremental, comenzando con la definición de las clases, construyendo funciones correspondientes a uno y múltiples ensayos, y reportando los resultados. Además, demuestra cómo utiliza comandos de trazado simples para producir varios tipos de gráficos que ayudan a comprender mejor la simulación.

  • 00:45:00 En esta sección, el orador habla sobre un paradigma común en el que configura un iterador de estilo de una vez por todas, definiendo n estilos, de modo que cuando quiere trazar un nuevo tipo de borracho, simplemente llama al iterador de estilo para obtener el siguiente estilo. Los estilos incluyen el marcador, la línea, el color y el tamaño, entre otras cosas, que le gusta cambiar de su configuración predeterminada para que la trama sea más fácil de leer. El ponente destaca la flexibilidad de este enfoque, fomentando la experimentación para lograr diferentes estilos argumentales. En la próxima lección, profundizará en la simulación de otros fenómenos y discutirá la credibilidad de una simulación.
5. Random Walks
5. Random Walks
  • 2017.05.19
  • www.youtube.com
MIT 6.0002 Introduction to Computational Thinking and Data Science, Fall 2016View the complete course: http://ocw.mit.edu/6-0002F16Instructor: John GuttagPro...
 

Lección 6. Simulación Monte Carlo



6. Simulación de Montecarlo

El video explica cómo funciona la simulación Monte Carlo y cómo se puede usar para estimar valores de una cantidad desconocida. El video analiza cómo funciona el método y cómo se ve afectado por diferentes tamaños de muestra.

  • 00:00:00 En esta conferencia, John Guttag explica cómo funciona la simulación Monte Carlo y cómo es útil para estimar valores de una cantidad desconocida. También señala que la clave del éxito del método es que la muestra extraída de la población tenderá a reflejar las propiedades de la población de la que se extrae.

  • 00:05:00 El video trata sobre la simulación de Monte Carlo, en la que se extrae una muestra de una población y se analiza para determinar cuál es el comportamiento promedio. En el ejemplo, se lanza una moneda 100 veces y se determina cara o cruz. Si se determina cara, se calcula la probabilidad del próximo lanzamiento. Si se determina cruz, la probabilidad del siguiente lanzamiento se calcula en función de la evidencia disponible. Si se vuelve a determinar cara, la probabilidad del próximo lanzamiento se calcula en función de la evidencia disponible y la suposición de que la moneda es justa. Si se determina cara por tercera vez, la probabilidad del próximo lanzamiento se basa en la suposición de que la moneda es justa y la evidencia disponible. Debido a que no hay razón para creer que la moneda es justa, la probabilidad del próximo lanzamiento es baja.

  • 00:10:00 En las simulaciones Monte Carlo, los resultados impredecibles de eventos aleatorios son capturados por la varianza de los resultados. A medida que aumenta la varianza, disminuye la confianza en la precisión de la simulación. La ruleta es un juego con una gran variación, lo que significa que las predicciones del resultado son difíciles.

  • 00:15:00 En este video, se realiza una simulación de Monte Carlo para mostrar que el rendimiento esperado de un giro de la rueda de la ruleta es 0 si la probabilidad del resultado es la misma cada vez. La ley de los grandes números establece que a medida que el número de intentos tiende a infinito, la probabilidad de que el resultado sea diferente de 0 converge a 0.

  • 00:20:00 La "falacia del jugador" es la creencia de que si las expectativas de uno no se cumplen en una situación dada, esto se remediará en el futuro. La regresión a la media es un término acuñado por Francis Galton en 1885 que describe cómo, después de un evento extremo (como que los padres sean inusualmente altos), es probable que el próximo evento aleatorio sea menos extremo. Este concepto es aplicable a la ruleta, donde si alguien gira una rueda de ruleta normal 10 veces y obtiene 10 rojos, este es un evento extremo. La falacia del jugador diría que los próximos 10 giros deberían dar como resultado más negros, a diferencia de la probabilidad de 1.1024 que se esperaría si los giros fueran independientes. El profesor Grimson no es el único que puede hacer chistes malos.

  • 00:25:00 En este video, John Guttag explica cómo funciona la regresión a la media y por qué es importante en los juegos de azar. Luego muestra cómo la ruleta europea es una subclase de la ruleta justa en la que agrega un bolsillo adicional, 0, al juego. Este bolsillo adicional afecta las probabilidades de obtener un número y lo hace más cercano a 0 que la ruleta americana, que es una subclase de la ruleta europea en la que las probabilidades son siempre las mismas.

  • 00:30:00 El método de simulación de Monte Carlo se utiliza para estimar probabilidades y razones de probabilidades. El video demuestra cómo los diferentes tamaños de muestra pueden afectar la precisión de las probabilidades estimadas. También se explican las matemáticas detrás de la varianza y la desviación estándar.

  • 00:35:00 La simulación Monte Carlo es un método para estimar valores que no se conocen. La simulación de Monte Carlo se puede utilizar para estimar el rendimiento esperado de apostar en la rueda de la ruleta, la calificación esperada en un examen y el recuento de votos esperado de un candidato político. La regla empírica establece que el 68% de los datos estarán dentro de una desviación estándar por delante o por detrás de la media.

  • 00:40:00 La regla empírica dice que deberíamos tener un alto grado de confianza en la media calculada en una simulación si la distribución de errores es normal.

  • 00:45:00 Este video explica la función de densidad de probabilidad (PDF) y cómo se usa para calcular la probabilidad de que una variable aleatoria tome valores específicos. La función de densidad de probabilidad es simétrica alrededor de la media y tiene un pico en la media, razón por la cual a menudo se usa para describir la probabilidad de que una variable aleatoria tome un valor específico. La fracción del área bajo la curva entre menos 1 y 1 es aproximadamente el 68 %.
6. Monte Carlo Simulation
6. Monte Carlo Simulation
  • 2017.05.19
  • www.youtube.com
MIT 6.0002 Introduction to Computational Thinking and Data Science, Fall 2016View the complete course: http://ocw.mit.edu/6-0002F16Instructor: John GuttagPro...
 

Lección 7. Intervalos de confianza



7. Intervalos de confianza

Este video cubre varios temas relacionados con las estadísticas, incluidas las distribuciones normales, el teorema del límite central y la estimación del valor de pi mediante simulaciones. El disertante usa Python para demostrar cómo trazar histogramas y funciones de densidad de probabilidad para distribuciones normales, así como también cómo usar la técnica de cuadratura para aproximar integrales. Además, el orador enfatiza la importancia de comprender las suposiciones que subyacen a los métodos estadísticos y la necesidad de controles de precisión para garantizar la validez de las simulaciones. Si bien los intervalos de confianza pueden proporcionar declaraciones estadísticamente válidas, es posible que no reflejen necesariamente la realidad, y es esencial tener motivos para creer que los resultados de una simulación se aproximan al valor real.

  • 00:00:00 En esta sección, el disertante habla sobre los supuestos que subyacen a la regla empírica y cómo se generan las distribuciones normales en Python utilizando la biblioteca aleatoria. Demuestran cómo producir una aproximación discreta de una distribución normal y cómo trazar un histograma con intervalos ponderados. El propósito de ponderar los contenedores es dar a cada artículo un peso diferente para que el eje y se pueda ajustar en consecuencia.

  • 00:05:00 En esta sección, el instructor explica cómo usar Python para trazar histogramas y funciones de densidad de probabilidad (PDF) para distribuciones normales. Muestra el código para crear un histograma usando la biblioteca pylab, donde el eje y muestra la fracción de valores que se encuentran dentro de un rango particular. Luego define archivos PDF y muestra cómo trazarlos usando Python. La curva PDF representa la probabilidad de que una variable aleatoria caiga entre dos valores, donde el área bajo la curva da la probabilidad de que esto ocurra. El instructor usa un ejemplo de una distribución normal estándar con una media de cero y una desviación estándar de uno.

  • 00:10:00 En esta sección, el orador explica cómo trazar una función de densidad de probabilidad (PDF) e interpreta los valores de Y en el gráfico. Los valores de Y son en realidad densidades o derivadas de la función de distribución acumulativa, y no son probabilidades reales, ya que pueden exceder de 1 o ser negativas. El ponente enfatiza que la forma de la curva es más importante que los propios valores de Y, ya que la integración del área bajo la curva nos permite determinar las probabilidades de que los valores caigan dentro de un cierto rango. Luego, el orador presenta brevemente el algoritmo "integrate quad" en la biblioteca "scipy" para la integración.

  • 00:15:00 En esta sección del video, el orador explica cómo usar una técnica numérica llamada cuadratura para aproximar integrales. Muestra un ejemplo de esta técnica con la función Gaussian, que toma tres argumentos y demuestra cómo pasarlos a la función de cuadratura junto con una tupla que proporciona todos los valores para los argumentos. Luego, el orador prueba la regla empírica para la función gaussiana usando valores aleatorios para mu y sigma, y muestra que los resultados están dentro del rango esperado, lo que demuestra la validez de la regla. Finalmente, explica la importancia de las distribuciones normales y su prevalencia en muchas áreas.

  • 00:20:00 En esta sección, el orador analiza la distribución normal y cómo se aplica a varios escenarios, como las alturas de hombres y mujeres o cambios en los precios del petróleo. Sin embargo, no todo sigue una distribución normal, como los giros de una rueda de ruleta. Cuando se trata de un conjunto de espines, el hablante muestra cómo se aplica el teorema del límite central, que establece que si se toma una muestra lo suficientemente grande de una población, las medias de las muestras se distribuirán normalmente y tendrán una media cercana a la de la población.

  • 00:25:00 En esta sección, el orador explica cómo la varianza de las medias de la muestra se relaciona con la varianza de la población dividida por el tamaño de la muestra. El orador usa una simulación de lanzar un dado varias veces con diferentes números de dados y muestra la disminución de la desviación estándar a medida que aumenta el número de dados. Además, el hablante muestra cómo la distribución de las medias forma una distribución normal. Esto demuestra la utilidad del teorema del límite central. El orador también aplica este concepto al juego de la ruleta y muestra cómo la distribución de las ganancias medias de los giros de la ruleta adopta una forma similar a una distribución normal.

  • 00:30:00 En esta sección, el orador analiza cómo, independientemente de la forma de la distribución de los valores originales, el Teorema del límite central (CLT) se puede usar para estimar la media usando muestras que son lo suficientemente grandes. El orador explica que incluso si la regla empírica no es perfectamente precisa, es lo suficientemente cercana como para ser útil en la mayoría de los casos. Además, las simulaciones de aleatoriedad y Monte Carlo pueden ser útiles para calcular algo que no es inherentemente aleatorio, como el valor de pi. Esto se demuestra a través de una explicación histórica de cómo la gente ha estimado el valor de pi a lo largo de la historia.

  • 00:35:00 En esta sección, el disertante analiza diferentes métodos utilizados para estimar el valor de pi a lo largo de la historia. Los métodos incluyen la construcción de un polígono de 96 lados y una simulación de Monte Carlo, que consiste en dejar caer agujas al azar para estimar el valor de pi. La simulación usó una fórmula matemática para estimar pi al encontrar la proporción de agujas en un círculo a agujas en un cuadrado. El orador también menciona intentar simular el método de Monte Carlo usando un arquero y el uso de Python para construir una simulación de Monte Carlo.

  • 00:40:00 En esta sección, el orador explica cómo estimar pi usando una simulación y cómo determinar su precisión usando intervalos de confianza. La simulación consiste en arrojar agujas al suelo y contar cuántas cruzan una línea, con más agujas que conducen a mejores estimaciones de pi. Para determinar la precisión, la desviación estándar se calcula tomando la media de las estimaciones y dividiéndola por la longitud de las estimaciones. Luego se usa un bucle para seguir aumentando el número de agujas hasta que la estimación de pi esté dentro de un cierto rango de precisión, lo que permite una mayor confianza en la estimación. Si bien las estimaciones de pi no son monótonamente mejores a medida que aumenta el número de agujas, las desviaciones estándar disminuyen monótonamente, lo que proporciona una mayor confianza en la estimación. El orador enfatiza que no es suficiente producir una buena respuesta, sino tener razones para creer que la respuesta está cerca del valor real.

  • 00:45:00 En esta sección, el orador discute la diferencia entre declaraciones estadísticamente válidas y declaraciones verdaderas. Si bien una simulación puede brindarnos intervalos de confianza estadísticamente válidos, es posible que no refleje con precisión la realidad. El orador introduce un error en su simulación al reemplazar 4 con 2, y aunque los intervalos de confianza son válidos, la estimación de pi es completamente incorrecta. Para garantizar la precisión de la simulación, se debe realizar una verificación de cordura. La técnica generalmente útil de muestreo de puntos aleatorios se presenta para estimar el área de cualquier región y se usa como ejemplo de cómo se puede usar la aleatoriedad para calcular algo que no es inherentemente aleatorio, como la integración.
7. Confidence Intervals
7. Confidence Intervals
  • 2017.05.19
  • www.youtube.com
MIT 6.0002 Introduction to Computational Thinking and Data Science, Fall 2016View the complete course: http://ocw.mit.edu/6-0002F16Instructor: John GuttagPro...
 

Lección 8. Muestreo y Error Estándar



8. Muestreo y error estándar

Este video sobre "Muestreo y error estándar" cubre varios conceptos en estadística inferencial, con un enfoque en técnicas de muestreo para estimar parámetros de población. El video explora el muestreo probabilístico y el muestreo aleatorio simple, así como el muestreo estratificado, y analiza el teorema del límite central, que se relaciona con la consistencia de las medias y las desviaciones estándar en muestras aleatorias de una población. El video también profundiza en temas como las barras de error, los intervalos de confianza, la desviación estándar y el error estándar, la elección del tamaño de muestra adecuado y los tipos de distribución. El disertante enfatiza la importancia de comprender el error estándar, ya que ayuda a estimar la desviación estándar de la población sin examinar toda la población, y cómo es un concepto ampliamente discutido en diferentes departamentos.

  • 00:00:00 En esta sección, el instructor analiza el tema del muestreo en relación con las estadísticas inferenciales. La idea clave es examinar una o más muestras aleatorias extraídas de una población para hacer referencias sobre esa población. El instructor analiza el muestreo probabilístico, en el que cada miembro de la población tiene una probabilidad distinta de cero de ser incluido en una muestra. Se profundiza en el muestreo aleatorio simple, que requiere que cada miembro de la población tenga la misma probabilidad de ser elegido en la muestra. Sin embargo, el instructor señala que el muestreo estratificado puede ser necesario en ciertas situaciones, como cuando una población no está distribuida uniformemente y los subgrupos deben dividirse y representarse proporcionalmente en la muestra.

  • 00:05:00 En esta sección, se introduce el concepto de muestreo estratificado como un método para muestrear pequeños subgrupos que deben estar representados proporcionalmente a su tamaño en la población. Se da el ejemplo del uso de muestreo estratificado para asegurar que los estudiantes de arquitectura estén representados. Sin embargo, el muestreo estratificado puede ser difícil de realizar correctamente, por lo que este curso se limitará a muestras aleatorias simples. El curso proporciona un conjunto de datos de ejemplo de temperaturas altas y bajas diarias para 21 ciudades de EE. UU. desde 1961 hasta 2015. Los datos se visualizan mediante histogramas, que muestran que los datos no se distribuyen normalmente. La temperatura máxima diaria media es de 16,3 grados centígrados con una desviación estándar de aproximadamente 9,4 grados.

  • 00:10:00 En esta sección, el video analiza la idea del muestreo y su relación con la población en su conjunto. Al tomar muestras aleatorias de tamaño 100 de una población y comparar las medias y las desviaciones estándar, el video muestra que, si bien las muestras individuales pueden diferir de la población, en general, las medias y las desviaciones estándar serán consistentes con la población debido al teorema del límite central. . Al ejecutar una simulación de mil muestras, el video demuestra cómo la media de las medias de la muestra es 16,3 y la desviación estándar es 0,94, lo que proporciona un intervalo de confianza del 95 % de 14,5 a 18,1. Si bien el intervalo de confianza es amplio, incluye la media de la población.

  • 00:15:00 En esta sección, el video analiza formas de obtener un límite más estricto en la estimación de la media de la población real. Se consideran extraer más muestras y tomar muestras más grandes. Ejecutar un experimento con el tamaño de la muestra aumentado de 100 a 200 resultó en una caída bastante dramática en la desviación estándar de 0,94 a 0,66, lo que indica que los tamaños de muestra más grandes pueden ayudar a obtener una estimación más precisa. También se introduce el uso de barras de error para visualizar la variabilidad de los datos. Los intervalos de confianza se pueden utilizar para determinar si las medias son significativamente diferentes desde el punto de vista estadístico o no. Si los intervalos de confianza no se superponen, es posible concluir que las medias son significativamente diferentes. Cuando se superponen, se necesita más investigación.

  • 00:20:00 En esta sección, el orador analiza cómo trazar barras de error usando el paquete PyLab en Python. Al usar la desviación estándar multiplicada por 1,96, se pueden crear barras de error que muestran la media y el nivel de confianza de la estimación. A medida que aumenta el tamaño de la muestra, las barras de error se vuelven más pequeñas, lo que proporciona una mayor confianza pero no necesariamente una mejor precisión. Sin embargo, al usar el teorema del límite central, el uso de una sola muestra aún puede proporcionar información valiosa, aunque mirar varias muestras con tamaños de muestra grandes puede ser redundante.

  • 00:25:00 En esta sección, el video analiza la tercera parte del Teorema del límite central, que establece que la varianza de las medias de la muestra será cercana a la varianza de la población dividida por el tamaño de la muestra. Esto conduce al cálculo del error estándar de la media, que es igual a la desviación estándar de la población dividida por la raíz cuadrada del tamaño de la muestra. El video usa un código para probar si el error estándar de la media funciona y muestra que la desviación estándar rastrea muy bien el error estándar, por lo que es útil estimar la desviación estándar calculando el error estándar. La diferencia entre la desviación estándar y el error estándar es que para calcular la primera, uno necesita mirar muchas muestras, y para el segundo, solo se requiere una muestra.

  • 00:30:00 En esta sección, el orador analiza el concepto de error estándar, que es una forma de aproximar la desviación estándar de una población sin tomar varias muestras. La fórmula para el error estándar incluye la desviación estándar de la población, pero esto generalmente no se conoce ya que requeriría examinar a toda la población. En cambio, la desviación estándar de la muestra se usa a menudo como una estimación. El orador demuestra que para tamaños de muestra más grandes, la desviación estándar de la muestra es una aproximación relativamente precisa de la desviación estándar de la población. Sin embargo, se observa que esto puede no ser siempre cierto para diferentes tipos de distribuciones y poblaciones más grandes.

  • 00:35:00 En esta sección, el video analiza diferentes distribuciones, incluidas la uniforme, normal o gaussiana y exponencial, y muestra las aproximaciones discretas a estas distribuciones. La diferencia entre la desviación estándar y la desviación estándar de la muestra no es la misma para todas estas distribuciones, siendo la exponencial el peor caso. El sesgo, una medida de la asimetría de una distribución de probabilidad, es un factor importante al decidir cuántas muestras se necesitan para estimar la población. Además, el video revela un hallazgo contraintuitivo de que el tamaño de la población no importa al determinar la cantidad de muestras necesarias.

  • 00:40:00 En esta sección, el orador analiza la importancia de elegir un tamaño de muestra apropiado para estimar la media de una población dada una sola muestra. Él enfatiza que elegir el tamaño de muestra correcto es esencial para obtener una respuesta precisa y evitar el uso de un tamaño de muestra demasiado pequeño. Una vez que se elige un tamaño de muestra, se toma una muestra aleatoria de la población para calcular la media y la desviación estándar de la muestra. Usando el error estándar estimado generado a partir de la muestra, se generan intervalos de confianza alrededor de la media de la muestra. El orador advierte que este método solo funciona si se eligen muestras aleatorias independientes y muestra cómo la elección de muestras dependientes puede conducir a resultados erróneos. Por último, demuestra un experimento de ejemplo para calcular fracciones fuera de los intervalos de confianza del 95 % y destaca que el cinco por ciento es el resultado óptimo.

  • 00:45:00 En esta sección, el orador analiza la importancia de comprender el concepto de error estándar en el análisis estadístico. Él enfatiza que si la respuesta es demasiado buena o demasiado mala, el cálculo de probabilidad es incorrecto. Para demostrar cómo funciona el error estándar, ejecuta una simulación y muestra que la fracción fuera del intervalo de confianza del 95 % está muy cerca del valor esperado del 5 %. El disertante concluye enfatizando la importancia del error estándar y cómo es un concepto ampliamente discutido entre diferentes departamentos.
8. Sampling and Standard Error
8. Sampling and Standard Error
  • 2017.05.19
  • www.youtube.com
MIT 6.0002 Introduction to Computational Thinking and Data Science, Fall 2016View the complete course: http://ocw.mit.edu/6-0002F16Instructor: John GuttagPro...
Razón de la queja: