Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
CS480/680 Clase 3: Regresión lineal
CS480/680 Clase 3: Regresión lineal
La lección sobre regresión lineal comienza con una introducción al problema de encontrar la mejor línea que se acerque lo más posible a un conjunto dado de puntos. El disertante explica que las funciones lineales se pueden representar mediante una combinación de entradas ponderadas. La regresión lineal se puede resolver mediante la optimización, con el objetivo de minimizar la pérdida euclidiana al variar el vector de peso, lo que se puede hacer de manera eficiente utilizando problemas de optimización convexos. El proceso de resolución de una ecuación de regresión lineal implica encontrar la variable W, o los pesos, que darán el mínimo global para la función objetivo, lo que se puede hacer usando técnicas como la inversión de matrices o métodos iterativos. También se analiza la importancia de la regularización para prevenir el sobreajuste, con un término de penalización agregado a la función objetivo para restringir la magnitud de los pesos y forzarlos a que sean lo más pequeños posible. La conferencia termina discutiendo la importancia de abordar el problema del sobreajuste en la regresión lineal.
CS480/680 Clase 4: Aprendizaje estadístico
CS480/680 Clase 4: Aprendizaje estadístico
En esta conferencia sobre aprendizaje estadístico, el profesor explica varios conceptos como la regla de marginalización, la probabilidad condicional, la probabilidad conjunta, la regla de Bayes y el aprendizaje bayesiano. Estos conceptos implican el uso de distribuciones de probabilidad y su actualización para reducir la incertidumbre en el aprendizaje. La conferencia enfatiza la importancia de comprender estos conceptos para justificar y explicar varios algoritmos. La conferencia también destaca las limitaciones de estos conceptos, particularmente al tratar con grandes espacios de hipótesis. A pesar de esta limitación, el aprendizaje bayesiano se considera óptimo siempre que el anterior sea correcto y proporcione información significativa a los usuarios.
En esta lección, el instructor explica el concepto de aprendizaje bayesiano aproximado como una solución para el problema de la manejabilidad del aprendizaje bayesiano. La máxima verosimilitud y el máximo a-posteriori son aproximaciones de uso común en el aprendizaje estadístico, pero vienen con su propio conjunto de debilidades, como sobreajuste y predicciones menos precisas que el aprendizaje bayesiano. La conferencia también cubre el problema de optimización que surge de maximizar la probabilidad, la cantidad de datos necesarios para diferentes problemas y la importancia de las próximas diapositivas para la tarea del curso. El instructor concluye enfatizando que el algoritmo convergerá hacia la mejor hipótesis dentro del espacio dado, incluso si algunas proporciones no son realizables.
CS480/680 Clase 5: Regresión lineal estadística
CS480/680 Clase 5: Regresión lineal estadística
En esta lección sobre regresión lineal estadística, el profesor cubre numerosos temas, comenzando con el concepto de máxima verosimilitud y las distribuciones de verosimilitud gaussiana para datos corruptos y ruidosos. Explican el uso de técnicas de máxima verosimilitud para encontrar los pesos que dan la máxima probabilidad para todos los puntos de datos en el conjunto de datos. Luego, la conferencia profundiza en la idea del máximo a-posteriori (MAP), el Gaussiano esférico y la matriz de covarianza. El ponente también aborda el uso de la información a priori y la regularización. Luego, el error esperado en la regresión lineal se divide en dos términos: uno que representa el ruido y otro que depende del vector de ponderación, W, que se puede dividir en sesgo y varianza. La conferencia termina con una discusión sobre el uso del aprendizaje bayesiano para calcular la distribución posterior. En general, la conferencia cubre una amplia gama de temas relacionados con la regresión lineal estadística y brinda información valiosa sobre la optimización de modelos para reducir el error de predicción.
La conferencia se centra en la regresión bayesiana, que estima una distribución posterior que converge hacia el verdadero conjunto de pesos a medida que se observan más puntos de datos. Se muestra que la distribución previa es una distribución sobre pares de W 0 y W1 y es una distribución de líneas. Después de observar un punto de datos, la distribución posterior se calcula usando distribuciones previas y de probabilidad, lo que da como resultado una creencia actualizada sobre la posición de la línea. Para hacer predicciones, se toma una combinación ponderada de las predicciones de las hipótesis en función de la distribución posterior, lo que lleva a una predicción gaussiana con una media y una varianza dadas por fórmulas específicas. El truco para obtener una predicción puntual real es tomar la media de la predicción gaussiana.
CS480/680 Clase 6: Herramientas para encuestas (Paulo Pacheco)
CS480/680 Clase 6: Herramientas para encuestas (Paulo Pacheco)
En este video, Paulo Pacheco presenta dos herramientas académicas para encuestas: Google Scholar y RefWorks. Explica cómo buscar artículos académicos y ordenarlos por citas usando Google Scholar, y sugiere filtrar los artículos más antiguos para los más recientes. Pacheco destaca la importancia de exportar y gestionar citas, y presenta RefWorks como herramienta para esta tarea. También proporciona consejos para acceder a publicaciones académicas, incluido el uso de búsquedas creativas de palabras clave y la posible necesidad de acceso a la red universitaria o una VPN.
CS480/680 Clase 6: conjuntos de datos y competiciones de Kaggle
CS480/680 Clase 6: conjuntos de datos y competiciones de Kaggle
La conferencia analiza Kaggle, una comunidad para profesionales de la ciencia de datos para competir en competencias patrocinadas utilizando conjuntos de datos proporcionados por un premio en efectivo, que ofrece núcleos para el entrenamiento de modelos de aprendizaje automático y extracción de características de datos, y una amplia selección de casi 17,000 conjuntos de datos para usar en el diseño de algoritmos. El disertante también señala que los repositorios GitHub de la empresa pueden proporcionar valiosos conjuntos de datos, códigos y artículos publicados para concursos.
CS480/680 Clase 6: Normalización de flujos (Priyank Jaini)
CS480/680 Clase 6: Normalización de flujos (Priyank Jaini)
El video proporciona una introducción a la normalización de flujos en modelos generativos profundos, una técnica que aprende una función para transformar una distribución en otra, con el objetivo de transformar una distribución conocida en una distribución de interés desconocida. El video también analiza posibles proyectos de investigación relacionados con la normalización de flujos, incluida la realización de una encuesta de diferentes documentos y avances relacionados con la normalización de flujos y el análisis de la transformación de un solo gaussiano en una mezcla de gaussianos. El disertante alienta la exploración de las muchas aplicaciones diferentes de la normalización de flujos.
CS480/680 Clase 6: Traducción de palabras sin supervisión (Kira Selby)
CS480/680 Clase 6: Traducción de palabras sin supervisión (Kira Selby)
El video analiza la traducción de palabras sin supervisión, lo que implica entrenar un modelo de aprendizaje automático para traducir hacia y desde un idioma sin ninguna información entre idiomas o coincidencia de diccionario. El modelo Muse se presenta como un enfoque que puede lograr una precisión de vanguardia en cientos de idiomas sin ninguna información multilingüe y se acerca a los modelos supervisados en el rendimiento. El proceso de traducción de palabras no supervisada emplea una matriz que traduce los espacios incrustados de palabras de diferentes idiomas, utilizando GAN o redes adversarias generativas. Al entrenar estos dos modelos uno contra el otro, se crea una forma de asignar dos distribuciones a un espacio, lo que proporciona mejores resultados de traducción. Los modelos pueden alcanzar un 82,3 % de precisión en las traducciones palabra a palabra.
CS480/680 Clase 6: Verificación de hechos y aprendizaje por refuerzo (Vik Goel)
CS480/680 Clase 6: Verificación de hechos y aprendizaje por refuerzo (Vik Goel)
El científico informático Vik Goel analiza la aplicación del aprendizaje reforzado en la verificación de noticias en línea y propone usar un sistema de recomendación para insertar evidencia de apoyo en tiempo real. Sugiere usar un gran corpus de trabajos académicos como fuente de datos para entrenar a un clasificador para predecir dónde se necesita una cita. Además, Goel explica cómo los investigadores han comenzado a codificar los antecedentes humanos en modelos de aprendizaje por refuerzo para acelerar el proceso y reconocer diferentes objetos en los videojuegos. Esto presenta un área de investigación prometedora donde los antecedentes adicionales pueden mejorar el proceso de aprendizaje.
CS480/680 Clase 6: Redes de suma-producto (Pranav Subramani)
CS480/680 Clase 6: Redes de suma-producto (Pranav Subramani)
La conferencia analiza los conceptos de redes de suma-producto (SPN), que son redes compuestas de sumas y productos, que se utilizan para el modelado probabilístico manejable que produce tiempos de ejecución no exponenciales y tiene muchas aplicaciones, como la interpretabilidad y el cálculo sencillo de la densidad marginal. El video también menciona el excelente desempeño de SPN con redes neuronales convolucionales, su potencial en la construcción de mejores modelos generativos cuando se combina con modelos como GAN y codificadores de agua de variación, y las áreas de investigación potenciales sin explotar para SPN, incluida la robustez contradictoria, escenarios de aprendizaje de refuerzo y modelado de utilidades esperadas. en juegos También se destacó la garantía teórica de interpretar el modelo y la oportunidad de que los académicos hagan aportes significativos en el campo del aprendizaje automático.
CS480/680 Clase 6: EM y modelos mixtos (Guojun Zhang)
CS480/680 Clase 6: EM y modelos mixtos (Guojun Zhang)
En CS480/680 Lecture 6, el profesor Guojun Zhang analiza los conceptos básicos del aprendizaje no supervisado y la agrupación, centrándose en los modelos mixtos y su uso en la agrupación de datos. La conferencia se centra en el algoritmo Expectation-Maximization y sus procesos Estep y Mstep, así como en el descenso de gradiente como método de optimización. El proyecto potencial propuesto consiste en estudiar cómo se comportan EM y gradientes descendentes en modelos de mezcla de aprendizaje, con el objetivo final de proponer un mejor algoritmo para evitar malos mínimos locales. Una base matemática se señala como necesaria para el proyecto.