Redes Neurais em IA e Deep Learning - página 21

 

Aprendizaje profundo del MIT en ciencias de la vida: primavera de 2021



Aprendizaje profundo del MIT en ciencias de la vida: primavera de 2021

El curso "Aprendizaje profundo en ciencias de la vida" aplica el aprendizaje automático a varias tareas de ciencias de la vida y lo imparte un investigador en aprendizaje automático y genómica con un personal docente de estudiantes de doctorado y estudiantes universitarios del MIT. El curso cubre los fundamentos del aprendizaje automático, los circuitos reguladores de genes, la variación en la enfermedad, las interacciones y el plegamiento de proteínas, y las imágenes usando TensorFlow a través de Python en una plataforma de Google Cloud. El curso constará de cuatro conjuntos de problemas, un cuestionario y un proyecto de equipo, con sesiones de tutoría intercaladas para ayudar a los estudiantes a diseñar sus propios proyectos. El instructor enfatiza la importancia de construir un equipo con habilidades e intereses complementarios y proporciona varios hitos y resultados a lo largo del período. El curso tiene como objetivo proporcionar experiencia del mundo real, incluida la redacción de propuestas de subvenciones y becas, revisión por pares, informes anuales y desarrollo de habilidades de comunicación y colaboración. El orador discute las diferencias entre la IA tradicional y el aprendizaje profundo, que construye una representación interna de una escena basada en estímulos observables, y enfatiza la importancia del aprendizaje profundo en las ciencias de la vida debido a la convergencia de datos de entrenamiento, poder de cómputo y nuevos algoritmos. .

El video es una conferencia introductoria sobre el aprendizaje profundo en las ciencias de la vida, que explica la importancia del aprendizaje automático y el aprendizaje profundo en la exploración de la complejidad del mundo. La charla se centra en el concepto de inferencia bayesiana y cómo juega un papel crucial en el aprendizaje automático clásico y profundo junto con las diferencias entre los enfoques de aprendizaje generativo y discriminativo. La conferencia también destaca el poder de las máquinas de vectores de soporte, el rendimiento de la clasificación y el álgebra lineal para comprender las redes en los sistemas biológicos. El orador señala que el curso cubrirá varios temas en aprendizaje profundo, incluida la regularización, evitar el sobreajuste y conjuntos de entrenamiento. La conferencia concluye abordando cuestiones relacionadas con la interpretabilidad de las neuronas artificiales y las redes profundas para futuras conferencias.

  • 00:00:00 En esta sección, el orador presenta el curso, Deep Learning in Life Sciences, y explica su enfoque en la aplicación del aprendizaje automático a tareas en las ciencias de la vida, incluida la regulación de genes, enfermedades, diseño terapéutico, imágenes médicas y computación. biología. El curso se reúne dos veces por semana con sesiones de tutoría opcionales los viernes y lo imparte el orador, que es investigador en aprendizaje automático y genómica, y un personal docente compuesto por estudiantes de doctorado y estudiantes universitarios del MIT. El orador también proporciona enlaces a las páginas de cursos del año pasado con grabaciones de todas las conferencias.

  • 00:05:00 En esta sección de la transcripción, el instructor presenta los fundamentos sobre los que se desarrollará el curso, como cálculo, álgebra lineal, probabilidad y estadística, y programación. El curso también tendrá una base introductoria de biología sobre la cual los estudiantes podrán desarrollar. Luego, el instructor detalla el desglose de calificaciones del curso, que incluye conjuntos de problemas, un cuestionario, un proyecto final y participación. La sección concluye con una explicación de por qué el aprendizaje profundo es importante en las ciencias de la vida debido a la convergencia de grandes conjuntos de datos económicos, los avances fundamentales en los métodos de aprendizaje automático y la computación de alto rendimiento, que ha transformado por completo el campo científico.

  • 00:10:00 En esta sección, el orador analiza la importancia y los beneficios de la biología computacional. Los estudiantes brindan respuestas a la pregunta de por qué la biología computacional es importante, incluido el manejo de grandes cantidades de datos, la capacidad de acelerar el descubrimiento, la creación de modelos matemáticos para procesos complejos, la comprensión de patrones a partir de datos biológicos y el uso de la visualización para extraer información significativa. patrones. El orador enfatiza la existencia de patrones y principios subyacentes en biología que se pueden entender a través de la computación y alienta a los estudiantes a explorar los diferentes cursos que se ofrecen en el departamento y entre departamentos.

  • 00:15:00 En esta sección, el orador analiza cómo los métodos computacionales pueden ayudar no solo en la investigación aplicada, sino también en la generación de una nueva comprensión fundamental en la investigación biológica básica. Hacen hincapié en que, si bien los métodos computacionales utilizados no siempre dan resultados perfectos, pueden proporcionar aproximaciones importantes que pueden ser aún más interesantes. Además, el disertante muestra cómo la biología computacional permite la integración de varias áreas de investigación en una comprensión más integral de enfermedades complejas que afectan a múltiples órganos. Finalmente, mencionan el uso de herramientas computacionales para simular procesos temporales a largo plazo como la transmisión y progresión de enfermedades.

  • 00:20:00 En esta sección del video, el orador analiza el papel de la computación en las ciencias de la vida, específicamente cómo puede simular la progresión de los procesos a lo largo del tiempo, acortando el tiempo de descubrimiento y desarrollo de fármacos y tratamientos. El uso del aprendizaje profundo también se está volviendo más frecuente para diseñar medicamentos y crear datos de prueba sintéticos. El orador también destaca la importancia de estudiar la diversidad genética a través de la demografía para lograr una verdadera equidad en los conjuntos de datos genéticos. La vida misma es digital y el desafío para comprender la biología es extraer señales del ruido y reconocer patrones significativos en conjuntos de datos.

  • 00:25:00 En esta sección, el instructor del curso describe las principales tareas y desafíos que se cubrirán en el curso, incluidos los fundamentos del aprendizaje automático, los circuitos reguladores de genes, la variación en enfermedades, las interacciones y el plegamiento de proteínas y las imágenes. El curso utilizará conjuntos de problemas para presentarles a los estudiantes cada una de estas fronteras, y los estudiantes usarán TensorFlow a través de Python en un entorno de programación dentro de la plataforma Google Cloud. El primer conjunto de problemas se centrará en el reconocimiento de caracteres, seguido del uso de estas técnicas para analizar datos genómicos y reconocer patrones de secuencia asociados con eventos reguladores de genes.

  • 00:30:00 En esta sección, el instructor analiza la estructura y los objetivos del curso, que constará de cuatro conjuntos de problemas, un cuestionario y un proyecto de equipo a lo largo de la clase. Los instructores enfatizan que el curso será interactivo y alientan a los estudiantes a inscribirse para ser escribas de conferencias de su interés, permitiéndoles invertir en ese campo en particular. Los estudiantes también tendrán la oportunidad de interactuar con profesores invitados que están activos en el campo del aprendizaje profundo en ciencias de la vida, y los proyectos de equipo se construirán sobre debates para las direcciones de proyectos de investigación, brindando a los estudiantes la oportunidad de aplicar sus nuevas habilidades para resolver problemas prácticos. . Además, los instructores mencionan que el campo del aprendizaje profundo en las ciencias de la vida tiene solo diez años, y los profesores invitados presentarán documentos clave en el campo, lo que hace que el curso sea muy interesante e interactivo para los estudiantes.

  • 00:35:00 En esta sección, el instructor del curso analiza cómo el curso tendrá sesiones de tutoría intercaladas con los módulos para ayudar a los estudiantes a diseñar sus propios proyectos, generar ideas y equilibrarlas con sus socios y mentores. Estas sesiones de tutoría contarán con miembros del personal o investigadores que están activos en las áreas relevantes, lo que permitirá a los estudiantes compartir ideas y prepararse para convertirse en investigadores activos en biología computacional. El instructor también enfatiza los aspectos intangibles de la educación con los que ayudará el curso, incluida la elaboración de una propuesta de investigación, el trabajo en conjuntos de habilidades complementarias, la recepción de comentarios de los compañeros y la identificación de posibles fallas en las propuestas de los compañeros. El curso tendrá un proyecto de término que refleja estas tareas intangibles en la vida real. También se alienta a los estudiantes a conocer a sus compañeros, formar equipos temprano con experiencia complementaria y enviar un perfil y una introducción en video.

  • 00:40:00 En esta sección, el instructor analiza los diversos hitos establecidos para el curso para garantizar una planificación, retroalimentación y búsqueda suficientes de proyectos que coincidan con las habilidades e intereses de los estudiantes. Menciona la importancia de construir un equipo con habilidades e intereses complementarios, proporcionando enlaces a los proyectos del año pasado y documentos recientes para inspirarse, y estableciendo sesiones periódicas de tutoría con estudiantes senior, posdoctorados y personal del curso. El curso también incluirá discusiones grupales sobre varios temas y aspectos de la revisión por pares para fomentar el pensamiento crítico sobre las propuestas y brindar comentarios y sugerencias. El instructor enfatiza la experiencia del mundo real que se obtendrá a través de este curso, incluida la redacción de propuestas de subvenciones y becas, la revisión por pares, los informes anuales y el desarrollo de habilidades de comunicación y colaboración. El instructor invita a los estudiantes a reunirse entre sí durante varias sesiones de grupo a lo largo del curso y brinda una descripción general de los hitos y entregables que se cumplirán durante el período.

  • 00:45:00 estructura del curso y los proyectos, el instructor proporciona una descripción general de los diferentes módulos y documentos disponibles para cada tema. Además, se describe el cronograma del curso, incluida la fecha de vencimiento para las propuestas de proyectos y las demostraciones de canalización de principio a fin. El instructor enfatiza la importancia de tener datos y herramientas desde el principio del curso para evitar problemas más adelante. También se mencionan los informes de mitad de curso y una conferencia sobre la presentación, así como la fecha límite para los proyectos finales y las presentaciones. También se puede invitar a profesores invitados que hayan escrito algunos de los artículos.

  • 00:50:00 En esta sección, el orador presenta los recursos y el apoyo disponibles para el curso, incluidos los laboratorios de tutoría y retroalimentación. También comparten los resultados de una encuesta introductoria que revela los diversos antecedentes de los estudiantes que toman el curso, con una mayoría de carreras de seis y veinte. El orador pasa alrededor de 10 minutos presentando algunos de los temas de aprendizaje automático y biología que se tratarán en el curso, destacando la importancia del aprendizaje profundo y sus diversas aplicaciones. También explican la diferencia entre inteligencia artificial, aprendizaje profundo y aprendizaje automático.

  • 00:55:00 En esta sección, el disertante analiza las diferencias entre los enfoques tradicionales de inteligencia artificial (IA) y el aprendizaje profundo. Mientras que la IA tradicional se basa en expertos humanos para codificar las reglas y las funciones de puntuación, el aprendizaje profundo tiene como objetivo aprender la intuición y las reglas por sí solo, sin una guía humana explícita. El disertante utiliza el ejemplo del ajedrez para ilustrar estas diferencias y señala que el aprendizaje profundo ha revolucionado la IA al permitir que las máquinas naveguen en entornos complejos, como escenas naturales y situaciones del mundo real. El disertante identifica la convergencia de los datos de entrenamiento, el poder de cómputo y los nuevos algoritmos como los tres pilares clave del aprendizaje profundo, y explica que las máquinas construyen una representación interna de una escena basada en estímulos observables.

  • 01:00:00 En esta sección, el orador explica que el aprendizaje automático y el aprendizaje profundo implican construir representaciones de la complejidad del mundo mediante el análisis de observaciones y datos. El aprendizaje automático tradicional usa representaciones simples, mientras que el aprendizaje profundo usa representaciones jerárquicas. Los modelos generativos permiten expresar la probabilidad futura de un evento dado el estado oculto del mundo, mientras que la regla de Bayes permite estimar la probabilidad posterior de que sea una estación particular dada la observación. Esto implica pasar de la probabilidad de los datos dada una hipótesis a la probabilidad de una hipótesis dados los datos a través de un producto de probabilidad y probabilidades previas. La probabilidad marginal de los datos se usa para sumar todas las hipótesis para obtener la probabilidad general de los datos.

  • 01:05:00 En esta sección, el ponente explica el concepto de inferencia bayesiana y su papel en el aprendizaje automático clásico y profundo. La inferencia bayesiana implica tener un modelo generativo para el mundo y luego inferir algo sobre ese modelo, lo que es especialmente útil en el aprendizaje supervisado donde existen etiquetas para algunos puntos y se puede lograr la clasificación de objetos según las características. En el aprendizaje automático tradicional, una tarea importante era la ingeniería de funciones, o seleccionar las funciones correctas de un conjunto de datos, mientras que en el aprendizaje profundo, las funciones se aprenden automáticamente. La agrupación en clústeres es una forma de aprendizaje no supervisado donde los conjuntos de datos se pueden aprender y representar, y la inferencia bayesiana se puede usar para estimar iterativamente los parámetros de un modelo generativo para el conjunto de datos para mejorar las características de los datos.

  • 01:10:00 En esta sección del video, el instructor analiza las diferencias entre los enfoques de aprendizaje generativo y discriminativo, destacando cómo el aprendizaje discriminativo se enfoca en aprender el mejor separador entre elementos de datos en lugar de tratar de capturar toda la distribución de datos. La conferencia también aborda el poder de las máquinas de vectores de soporte, el rendimiento de la clasificación y el álgebra lineal para comprender las redes en los sistemas biológicos. El instructor señala que la clase se centrará en el aprendizaje profundo, específicamente en la construcción de características simples y más abstractas a través de capas para clasificar varios objetos y conceptos sobre el mundo. Finalmente, la conferencia enfatiza que no todo el aprendizaje es profundo y revisa los enfoques históricos de la inteligencia artificial y el aprendizaje automático.

  • 01:15:00 En esta sección, el disertante analiza cómo el cerebro humano procesa imágenes y reconoce objetos, utilizando capas de neuronas que aprenden capas abstractas de inferencias. Compara este proceso con la arquitectura de las redes neuronales utilizadas en el aprendizaje profundo y la IA, que se han trasladado del espacio biológico al espacio computacional. El curso cubrirá varios temas en el aprendizaje profundo, incluida la regularización, evitar el sobreajuste, conjuntos de entrenamiento y conjuntos de prueba. El orador también menciona codificadores automáticos para reducir las representaciones a otras más simples y algoritmos supervisados que funcionan como métodos no supervisados. Además, da la bienvenida a los asistentes al curso y destaca la importancia de los aspectos biológicos del curso.

  • 01:20:00 En esta sección, el ponente aborda varias cuestiones relacionadas con la interpretabilidad de las neuronas artificiales y las redes profundas, que se tratarán en detalle en una próxima conferencia. También les recuerdan a los estudiantes que completen sus perfiles y carguen sus presentaciones en video.
 

La historia interna del asombroso potencial de ChatGPT | Greg Brockman | TED



La historia interna del asombroso potencial de ChatGPT | Greg Brockman | TED

En esta sección del video, Greg Brockman analiza el papel de la IA en la mejora de la educación. Argumenta que los métodos de educación tradicionales a menudo son ineficientes e ineficaces, con estudiantes que luchan por retener el conocimiento y maestros que luchan por enseñar de una manera que involucre a todos los estudiantes. Brockman sugiere que la IA podría ayudar a resolver estos problemas al proporcionar experiencias de aprendizaje personalizadas para cada estudiante. Con herramientas de IA, es posible monitorear el progreso de los estudiantes en tiempo real, ajustando el plan de estudios a sus necesidades y preferencias. Esto podría conducir a experiencias de aprendizaje más atractivas y eficientes, lo que permitiría a los estudiantes retener más conocimientos y a los profesores concentrarse en tareas más importantes. Brockman también enfatiza la importancia de diseñar herramientas de inteligencia artificial teniendo en cuenta la privacidad, asegurando que los datos de los estudiantes estén protegidos y se usen solo con fines educativos.

  • 00:00:00 En esta sección, Greg Brockman, director ejecutivo de OpenAI, demostró las capacidades de una herramienta de IA llamada Dolly que crea herramientas para IA. Al usar esta herramienta con ChatGPT, los usuarios pueden generar imágenes y texto para lograr su objetivo con una interfaz de lenguaje unificado, lo que les permite eliminar pequeños detalles y verificarlos al incorporarlos con otras aplicaciones. Esta nueva forma de pensar en una interfaz de usuario ampliará las capacidades de lo que la IA puede hacer en nombre del usuario y llevará la tecnología a nuevos niveles.

  • 00:05:00 En esta sección, Greg Brockman explica cómo se entrena la IA para usar las herramientas y producir el resultado deseado a través de la retroalimentación. El proceso tiene dos pasos: primero, se utiliza un proceso de aprendizaje no supervisado en el que se muestra a la IA el mundo entero y se le pide que prediga lo que sigue en un texto que nunca antes había visto. El segundo paso implica la retroalimentación humana donde se le enseña a la IA qué hacer con esas habilidades probando varias cosas, y se proporciona retroalimentación humana para reforzar todo el proceso utilizado para producir la respuesta. Esta retroalimentación le permite generalizar y aplicar lo aprendido a nuevas situaciones. La IA también se usa para verificar hechos y puede emitir consultas de búsqueda y escribir toda su cadena de pensamiento, lo que hace que sea más eficiente verificar cualquier parte de la cadena de razonamiento.

  • 00:10:00 En esta sección del video, Greg Brockman analiza el potencial de colaboración entre humanos e IA para resolver problemas complejos. Muestra un ejemplo de una herramienta de verificación de hechos que requiere la participación humana para producir datos útiles para otra IA, lo que demuestra cómo los humanos pueden proporcionar gestión, supervisión y retroalimentación mientras las máquinas funcionan de manera confiable e inspeccionable. Brockman cree que esto conducirá a resolver problemas que antes eran imposibles, incluido el replanteamiento de cómo interactuamos con las computadoras. Demuestra cómo ChatGPT, un poderoso modelo de lenguaje de IA, se puede usar para analizar una hoja de cálculo de 167 000 documentos de IA y brindar información a través de gráficos exploratorios, mostrando el potencial de la IA para ayudar con el análisis de datos y la toma de decisiones.

  • 00:15:00 En esta sección, Greg Brockman analiza el potencial de la IA y afirma que hacerlo bien requerirá la participación de todos para establecer las reglas y pautas para su integración en nuestra vida diaria. Él cree que lograr la misión de OpenAI de garantizar que la inteligencia artificial general beneficie a toda la humanidad es posible a través de la alfabetización y la voluntad de repensar la forma en que hacemos las cosas. Brockman reconoce que si bien la tecnología es asombrosa, también da miedo, ya que requiere repensar todo lo que hacemos actualmente. El éxito del modelo chatGPT de OpenAI se debe en parte a sus elecciones deliberadas, confrontando la realidad y fomentando la colaboración entre diversos equipos. Brockman también atribuye la aparición de nuevas posibilidades al crecimiento de los modelos de lenguaje y el principio de emergencia, donde muchos componentes simples pueden conducir a comportamientos emergentes complejos.

  • 00:20:00 En esta sección del video, Greg Brockman analiza el asombroso potencial de la capacidad de ChatGPT para aprender y predecir, incluso en áreas que no se enseñaron explícitamente a la máquina. Sin embargo, señala que si bien la máquina puede manejar la suma de números de 40 dígitos, a menudo se equivocará en un problema de suma cuando se le presente un número de 40 dígitos y un número de 35 dígitos. Brockman también enfatiza la importancia de la calidad de la ingeniería con el aprendizaje automático, reconstruyendo toda la pila para garantizar que cada pieza esté diseñada correctamente antes de hacer predicciones. Reconoce que ampliar dicha tecnología podría conducir a resultados impredecibles, pero cree en implementar cambios incrementales para supervisar y alinear adecuadamente la intención de la máquina con la nuestra. En última instancia, Brockman cree que con la retroalimentación adecuada y la integración con los humanos, el viaje hacia la verdad y la sabiduría con IA es posible.

  • 00:25:00 En esta sección, Greg Brockman aborda las preocupaciones sobre la responsabilidad y las implicaciones de seguridad de lanzar inteligencia artificial (IA) como GPT sin las medidas de seguridad adecuadas. Él explica que el plan predeterminado de construir en secreto y luego esperar que la seguridad se ejecute correctamente es aterrador y no se siente bien. En cambio, argumenta que el enfoque alternativo es liberar la IA y permitir que las personas aporten información antes de que se vuelvan demasiado poderosas. Brockman comparte una historia de contemplar si querría que la tecnología estuviera dentro de 5 o 500 años, y concluyó que es mejor abordar este derecho con responsabilidad colectiva y proporcionar barandillas para que la IA sea inteligente en lugar de imprudente.
 

Aprendizaje profundo del MIT en ciencias de la vida: primavera de 2021



Aprendizaje profundo del MIT en ciencias de la vida: primavera de 2021

El curso "Aprendizaje profundo en ciencias de la vida" aplica el aprendizaje automático a varias tareas de ciencias de la vida y lo imparte un investigador en aprendizaje automático y genómica con un personal docente de estudiantes de doctorado y estudiantes universitarios del MIT. El curso cubre los fundamentos del aprendizaje automático, los circuitos reguladores de genes, la variación en la enfermedad, las interacciones y el plegamiento de proteínas, y las imágenes usando TensorFlow a través de Python en una plataforma de Google Cloud. El curso constará de cuatro conjuntos de problemas, un cuestionario y un proyecto de equipo, con sesiones de tutoría intercaladas para ayudar a los estudiantes a diseñar sus propios proyectos. El instructor enfatiza la importancia de construir un equipo con habilidades e intereses complementarios y proporciona varios hitos y resultados a lo largo del período. El curso tiene como objetivo proporcionar experiencia del mundo real, incluida la redacción de propuestas de subvenciones y becas, revisión por pares, informes anuales y desarrollo de habilidades de comunicación y colaboración. El orador discute las diferencias entre la IA tradicional y el aprendizaje profundo, que construye una representación interna de una escena basada en estímulos observables, y enfatiza la importancia del aprendizaje profundo en las ciencias de la vida debido a la convergencia de datos de entrenamiento, poder de cómputo y nuevos algoritmos. .

El video es una conferencia introductoria sobre el aprendizaje profundo en las ciencias de la vida, que explica la importancia del aprendizaje automático y el aprendizaje profundo en la exploración de la complejidad del mundo. La charla se centra en el concepto de inferencia bayesiana y cómo juega un papel crucial en el aprendizaje automático clásico y profundo junto con las diferencias entre los enfoques de aprendizaje generativo y discriminativo. La conferencia también destaca el poder de las máquinas de vectores de soporte, el rendimiento de la clasificación y el álgebra lineal para comprender las redes en los sistemas biológicos. El orador señala que el curso cubrirá varios temas en aprendizaje profundo, incluida la regularización, evitar el sobreajuste y conjuntos de entrenamiento. La conferencia concluye abordando cuestiones relacionadas con la interpretabilidad de las neuronas artificiales y las redes profundas para futuras conferencias.

  • 00:00:00 En esta sección, el orador presenta el curso, Deep Learning in Life Sciences, y explica su enfoque en la aplicación del aprendizaje automático a tareas en las ciencias de la vida, incluida la regulación de genes, enfermedades, diseño terapéutico, imágenes médicas y computación. biología. El curso se reúne dos veces por semana con sesiones de tutoría opcionales los viernes y lo imparte el orador, que es investigador en aprendizaje automático y genómica, y un personal docente compuesto por estudiantes de doctorado y estudiantes universitarios del MIT. El orador también proporciona enlaces a las páginas de cursos del año pasado con grabaciones de todas las conferencias.

  • 00:05:00 En esta sección de la transcripción, el instructor presenta los fundamentos sobre los que se desarrollará el curso, como cálculo, álgebra lineal, probabilidad y estadística, y programación. El curso también tendrá una base introductoria de biología sobre la cual los estudiantes podrán desarrollar. Luego, el instructor detalla el desglose de calificaciones del curso, que incluye conjuntos de problemas, un cuestionario, un proyecto final y participación. La sección concluye con una explicación de por qué el aprendizaje profundo es importante en las ciencias de la vida debido a la convergencia de grandes conjuntos de datos económicos, los avances fundamentales en los métodos de aprendizaje automático y la computación de alto rendimiento, que ha transformado por completo el campo científico.

  • 00:10:00 En esta sección, el orador analiza la importancia y los beneficios de la biología computacional. Los estudiantes brindan respuestas a la pregunta de por qué la biología computacional es importante, incluido el manejo de grandes cantidades de datos, la capacidad de acelerar el descubrimiento, la creación de modelos matemáticos para procesos complejos, la comprensión de patrones a partir de datos biológicos y el uso de la visualización para extraer información significativa. patrones. El orador enfatiza la existencia de patrones y principios subyacentes en biología que se pueden entender a través de la computación y alienta a los estudiantes a explorar los diferentes cursos que se ofrecen en el departamento y entre departamentos.

  • 00:15:00 En esta sección, el orador analiza cómo los métodos computacionales pueden ayudar no solo en la investigación aplicada, sino también en la generación de una nueva comprensión fundamental en la investigación biológica básica. Hacen hincapié en que, si bien los métodos computacionales utilizados no siempre dan resultados perfectos, pueden proporcionar aproximaciones importantes que pueden ser aún más interesantes. Además, el disertante muestra cómo la biología computacional permite la integración de varias áreas de investigación en una comprensión más integral de enfermedades complejas que afectan a múltiples órganos. Finalmente, mencionan el uso de herramientas computacionales para simular procesos temporales a largo plazo como la transmisión y progresión de enfermedades.

  • 00:20:00 En esta sección del video, el orador analiza el papel de la computación en las ciencias de la vida, específicamente cómo puede simular la progresión de los procesos a lo largo del tiempo, acortando el tiempo de descubrimiento y desarrollo de fármacos y tratamientos. El uso del aprendizaje profundo también se está volviendo más frecuente para diseñar medicamentos y crear datos de prueba sintéticos. El orador también destaca la importancia de estudiar la diversidad genética a través de la demografía para lograr una verdadera equidad en los conjuntos de datos genéticos. La vida misma es digital y el desafío para comprender la biología es extraer señales del ruido y reconocer patrones significativos en conjuntos de datos.

  • 00:25:00 En esta sección, el instructor del curso describe las principales tareas y desafíos que se cubrirán en el curso, incluidos los fundamentos del aprendizaje automático, los circuitos reguladores de genes, la variación en enfermedades, las interacciones y el plegamiento de proteínas y las imágenes. El curso utilizará conjuntos de problemas para presentarles a los estudiantes cada una de estas fronteras, y los estudiantes usarán TensorFlow a través de Python en un entorno de programación dentro de la plataforma Google Cloud. El primer conjunto de problemas se centrará en el reconocimiento de caracteres, seguido del uso de estas técnicas para analizar datos genómicos y reconocer patrones de secuencia asociados con eventos reguladores de genes.

  • 00:30:00 En esta sección, el instructor analiza la estructura y los objetivos del curso, que constará de cuatro conjuntos de problemas, un cuestionario y un proyecto de equipo a lo largo de la clase. Los instructores enfatizan que el curso será interactivo y alientan a los estudiantes a inscribirse para ser escribas de conferencias de su interés, permitiéndoles invertir en ese campo en particular. Los estudiantes también tendrán la oportunidad de interactuar con profesores invitados que están activos en el campo del aprendizaje profundo en ciencias de la vida, y los proyectos de equipo se construirán sobre debates para las direcciones de proyectos de investigación, brindando a los estudiantes la oportunidad de aplicar sus nuevas habilidades para resolver problemas prácticos. . Además, los instructores mencionan que el campo del aprendizaje profundo en las ciencias de la vida tiene solo diez años, y los profesores invitados presentarán documentos clave en el campo, lo que hace que el curso sea muy interesante e interactivo para los estudiantes.

  • 00:35:00 En esta sección, el instructor del curso analiza cómo el curso tendrá sesiones de tutoría intercaladas con los módulos para ayudar a los estudiantes a diseñar sus propios proyectos, generar ideas y equilibrarlas con sus socios y mentores. Estas sesiones de tutoría contarán con miembros del personal o investigadores que están activos en las áreas relevantes, lo que permitirá a los estudiantes compartir ideas y prepararse para convertirse en investigadores activos en biología computacional. El instructor también enfatiza los aspectos intangibles de la educación con los que ayudará el curso, incluida la elaboración de una propuesta de investigación, el trabajo en conjuntos de habilidades complementarias, la recepción de comentarios de los compañeros y la identificación de posibles fallas en las propuestas de los compañeros. El curso tendrá un proyecto de término que refleja estas tareas intangibles en la vida real. También se alienta a los estudiantes a conocer a sus compañeros, formar equipos temprano con experiencia complementaria y enviar un perfil y una introducción en video.

  • 00:40:00 En esta sección, el instructor analiza los diversos hitos establecidos para el curso para garantizar una planificación, retroalimentación y búsqueda suficientes de proyectos que coincidan con las habilidades e intereses de los estudiantes. Menciona la importancia de construir un equipo con habilidades e intereses complementarios, proporcionando enlaces a los proyectos del año pasado y documentos recientes para inspirarse, y estableciendo sesiones periódicas de tutoría con estudiantes senior, posdoctorados y personal del curso. El curso también incluirá discusiones grupales sobre varios temas y aspectos de la revisión por pares para fomentar el pensamiento crítico sobre las propuestas y brindar comentarios y sugerencias. El instructor enfatiza la experiencia del mundo real que se obtendrá a través de este curso, incluida la redacción de propuestas de subvenciones y becas, la revisión por pares, los informes anuales y el desarrollo de habilidades de comunicación y colaboración. El instructor invita a los estudiantes a reunirse entre sí durante varias sesiones de grupo a lo largo del curso y brinda una descripción general de los hitos y entregables que se cumplirán durante el período.

  • 00:45:00 estructura del curso y los proyectos, el instructor proporciona una descripción general de los diferentes módulos y documentos disponibles para cada tema. Además, se describe el cronograma del curso, incluida la fecha de vencimiento para las propuestas de proyectos y las demostraciones de canalización de principio a fin. El instructor enfatiza la importancia de tener datos y herramientas desde el principio del curso para evitar problemas más adelante. También se mencionan los informes de mitad de curso y una conferencia sobre la presentación, así como la fecha límite para los proyectos finales y las presentaciones. También se puede invitar a profesores invitados que hayan escrito algunos de los artículos.

  • 00:50:00 En esta sección, el orador presenta los recursos y el apoyo disponibles para el curso, incluidos los laboratorios de tutoría y retroalimentación. También comparten los resultados de una encuesta introductoria que revela los diversos antecedentes de los estudiantes que toman el curso, con una mayoría de carreras de seis y veinte. El orador pasa alrededor de 10 minutos presentando algunos de los temas de aprendizaje automático y biología que se tratarán en el curso, destacando la importancia del aprendizaje profundo y sus diversas aplicaciones. También explican la diferencia entre inteligencia artificial, aprendizaje profundo y aprendizaje automático.

  • 00:55:00 En esta sección, el disertante analiza las diferencias entre los enfoques tradicionales de inteligencia artificial (IA) y el aprendizaje profundo. Mientras que la IA tradicional se basa en expertos humanos para codificar las reglas y las funciones de puntuación, el aprendizaje profundo tiene como objetivo aprender la intuición y las reglas por sí solo, sin una guía humana explícita. El disertante utiliza el ejemplo del ajedrez para ilustrar estas diferencias y señala que el aprendizaje profundo ha revolucionado la IA al permitir que las máquinas naveguen en entornos complejos, como escenas naturales y situaciones del mundo real. El disertante identifica la convergencia de los datos de entrenamiento, el poder de cómputo y los nuevos algoritmos como los tres pilares clave del aprendizaje profundo, y explica que las máquinas construyen una representación interna de una escena basada en estímulos observables.

  • 01:00:00 En esta sección, el orador explica que el aprendizaje automático y el aprendizaje profundo implican construir representaciones de la complejidad del mundo mediante el análisis de observaciones y datos. El aprendizaje automático tradicional usa representaciones simples, mientras que el aprendizaje profundo usa representaciones jerárquicas. Los modelos generativos permiten expresar la probabilidad futura de un evento dado el estado oculto del mundo, mientras que la regla de Bayes permite estimar la probabilidad posterior de que sea una estación particular dada la observación. Esto implica pasar de la probabilidad de los datos dada una hipótesis a la probabilidad de una hipótesis dados los datos a través de un producto de probabilidad y probabilidades previas. La probabilidad marginal de los datos se usa para sumar todas las hipótesis para obtener la probabilidad general de los datos.

  • 01:05:00 En esta sección, el ponente explica el concepto de inferencia bayesiana y su papel en el aprendizaje automático clásico y profundo. La inferencia bayesiana implica tener un modelo generativo para el mundo y luego inferir algo sobre ese modelo, lo que es especialmente útil en el aprendizaje supervisado donde existen etiquetas para algunos puntos y se puede lograr la clasificación de objetos según las características. En el aprendizaje automático tradicional, una tarea importante era la ingeniería de funciones, o seleccionar las funciones correctas de un conjunto de datos, mientras que en el aprendizaje profundo, las funciones se aprenden automáticamente. La agrupación en clústeres es una forma de aprendizaje no supervisado donde los conjuntos de datos se pueden aprender y representar, y la inferencia bayesiana se puede usar para estimar iterativamente los parámetros de un modelo generativo para el conjunto de datos para mejorar las características de los datos.

  • 01:10:00 En esta sección del video, el instructor analiza las diferencias entre los enfoques de aprendizaje generativo y discriminativo, destacando cómo el aprendizaje discriminativo se enfoca en aprender el mejor separador entre elementos de datos en lugar de tratar de capturar toda la distribución de datos. La conferencia también aborda el poder de las máquinas de vectores de soporte, el rendimiento de la clasificación y el álgebra lineal para comprender las redes en los sistemas biológicos. El instructor señala que la clase se centrará en el aprendizaje profundo, específicamente en la construcción de características simples y más abstractas a través de capas para clasificar varios objetos y conceptos sobre el mundo. Finalmente, la conferencia enfatiza que no todo el aprendizaje es profundo y revisa los enfoques históricos de la inteligencia artificial y el aprendizaje automático.

  • 01:15:00 En esta sección, el disertante analiza cómo el cerebro humano procesa imágenes y reconoce objetos, utilizando capas de neuronas que aprenden capas abstractas de inferencias. Compara este proceso con la arquitectura de las redes neuronales utilizadas en el aprendizaje profundo y la IA, que se han trasladado del espacio biológico al espacio computacional. El curso cubrirá varios temas en el aprendizaje profundo, incluida la regularización, evitar el sobreajuste, conjuntos de entrenamiento y conjuntos de prueba. El orador también menciona codificadores automáticos para reducir las representaciones a otras más simples y algoritmos supervisados que funcionan como métodos no supervisados. Además, da la bienvenida a los asistentes al curso y destaca la importancia de los aspectos biológicos del curso.

  • 01:20:00 En esta sección, el ponente aborda varias cuestiones relacionadas con la interpretabilidad de las neuronas artificiales y las redes profundas, que se tratarán en detalle en una próxima conferencia. También les recuerdan a los estudiantes que completen sus perfiles y carguen sus presentaciones en video.
 

Fundamentos del aprendizaje automático: Clase 02 (primavera de 2021)



Fundamentos del aprendizaje automático - Aprendizaje profundo en ciencias de la vida Clase 02 (primavera de 2021)

Esta lección cubre los fundamentos del aprendizaje automático, introduciendo conceptos como conjuntos de prueba y entrenamiento, tipos de modelos como discriminativo y generativo, evaluación de funciones de pérdida, regularización y sobreajuste, y redes neuronales. El disertante continúa explicando la importancia de los hiperparámetros, evaluando la precisión en las ciencias de la vida, las pruebas de correlación y los cálculos de probabilidad para las pruebas de modelos. Finalmente, se discuten los conceptos básicos de las redes neuronales profundas y la estructura de una neurona, destacando el papel de la no linealidad en el aprendizaje de funciones complejas.

En la segunda sección de la lección, se explica el concepto de funciones de activación en el aprendizaje profundo, así como el proceso de aprendizaje de ajustar los pesos para que coincidan con la función de salida utilizando derivadas parciales para ajustar las actualizaciones de peso para minimizar los errores, que es la base del gradiente. aprendizaje basado en El concepto de retropropagación se introduce como un método para propagar derivadas a través de una red neuronal con el fin de ajustar los pesos. Se analizan los diversos métodos para optimizar los pesos en múltiples capas de modelos de aprendizaje profundo, incluido el descenso de gradiente estocástico y el concepto de capacidad del modelo y la dimensión VC. También se analiza la eficacia de la capacidad de un modelo en un gráfico y el sesgo y la varianza, junto con varias técnicas de regularización, como la detención temprana y la disminución del peso. Se enfatiza la importancia de encontrar el equilibrio correcto de complejidad y se alienta a los estudiantes a presentarse a sus compañeros de clase de manera positiva.

  • 00:00:00 En esta sección, el disertante introduce los fundamentos del aprendizaje automático y su definición. El aprendizaje automático es el proceso de convertir la experiencia en experiencia o conocimiento, y utiliza métodos computacionales para predecir con precisión los resultados futuros utilizando los patrones descubiertos en los datos. El objetivo del aprendizaje automático es desarrollar métodos que puedan detectar automáticamente patrones en los datos y usarlos para hacer buenas predicciones de la salida. El profesor también explica el concepto de conjunto de entrenamiento, que se utiliza para ajustar los parámetros y la arquitectura del modelo, y el conjunto de prueba, que evalúa el rendimiento y el poder de generalización del modelo. Finalmente, el disertante toca la importancia de la regularización en el control de los parámetros y la complejidad del modelo para evitar el sobreajuste.

  • 00:05:00 En esta sección de la lección, el instructor presenta los diferentes tipos de objetos utilizados en el aprendizaje automático, como escalares, vectores, matrices y tensores. El espacio de entrada se define como ejemplos individuales de estos objetos, donde se utiliza un conjunto de datos particular con índices y características específicas. También se introduce el espacio de la etiqueta, con la etiqueta predicha denotada como y sombrero. El objetivo del aprendizaje automático es evaluar las características extraídas de los datos de entrada y calcular un resultado de salida mediante una función que traduce la entrada en la salida. El instructor también explica la diferencia entre conjuntos de entrenamiento y prueba y cómo la función toma parámetros de entrada y calcula una salida usando vectores de peso y sesgos.

  • 00:10:00 En esta sección, el orador explica cómo se usan los pesos y sesgos para optimizar la salida de una función lineal cuando no hay eje. La función de transformación puede verse como el modelo del mundo, que hace inferencias y clasificaciones sobre el mundo. Hay dos tipos de modelos: modelos discriminativos que diferencian entre dos clases y modelos generativos que intentan modelar la distribución conjunta de múltiples clases. La regresión lineal es solo un tipo de aprendizaje automático, siendo la regresión una tarea común además de la clasificación.

  • 00:15:00 En esta sección, el disertante analiza los diferentes tipos de aprendizaje automático, incluido el aprendizaje supervisado, semisupervisado, no supervisado y de refuerzo. La atención se centra en el aprendizaje supervisado y los diversos tipos de resultados, como la regresión multivariante, la clasificación binaria y de clases múltiples, y la clasificación de etiquetas múltiples. El disertante también habla de las funciones objetivo, que se utilizan para optimizar los modelos de aprendizaje automático durante el entrenamiento, y pueden ser en forma de funciones de pérdida, costo o error. Se presentan diferentes tipos de funciones de pérdida, incluida la pérdida cero uno, la pérdida de entropía cruzada y la pérdida de bisagra, y la conferencia concluye con una discusión sobre el error cuadrático medio y el error absoluto medio para la regresión.

  • 00:20:00 En esta sección, el disertante introduce los conceptos de regularización L1 y L2, que son penalizaciones lineales y cuadráticas por desviarse de un valor predicho, respectivamente. Discuten cómo se pueden usar para penalizar los valores atípicos y evitar el sobreajuste mediante la asignación de restricciones en los parámetros. Luego, el disertante explora diferentes funciones de pérdida para tareas de clasificación, como la pérdida de entropía cruzada binaria, que sopesa todo según la probabilidad de ocurrencia de un valor, y la pérdida de entropía cruzada categórica, que utiliza un enfoque basado en información. Además, tocan la función soft max para mapear datos en un rango de cero a uno. Todos estos conceptos tienen en cuenta el estimador de máxima verosimilitud y las probabilidades posteriores en un entorno bayesiano.

  • 00:25:00 En esta sección, la lección explica el resultado de usar una fórmula particular en toda la clase, que es uno si pertenece a una clase específica y cero en caso contrario. La conferencia también analiza la estructura del problema, incluidos los datos de entrada, los pesos y un término de sesgo. El optimizador se crea en función de las discrepancias entre los pesos, y estos pesos se entrenan mediante una función de pérdida, como el error cuadrático medio o el error absoluto medio. La conferencia también introduce la idea de riesgo, que representa el costo asociado con predicciones particulares, y explica cómo usar el riesgo para optimizar la función objetivo. Luego, la conferencia describe cómo actualizar los pesos en función de la función de pérdida y cómo usar conjuntos de entrenamiento y prueba para evaluar el modelo.

  • 00:30:00 En esta sección, el instructor explica el concepto de overfitting y underfitting en el aprendizaje automático. Describe cómo, a medida que mejora el conjunto de entrenamiento, el modelo también mejora la predicción de datos en el conjunto de validación. Sin embargo, después de cierto punto, el modelo comienza a sobreajustarse al conjunto de entrenamiento y el error en el conjunto de validación comienza a aumentar. Por lo tanto, el instructor enfatiza la importancia de dividir los datos en conjuntos de entrenamiento, validación y prueba, de modo que el conjunto de validación se use para ajustar los hiperparámetros y el conjunto de prueba para evaluar el rendimiento del modelo completamente entrenado.

  • 00:35:00 En esta sección, el orador analiza cómo evaluar la precisión de los modelos de aprendizaje automático en el contexto de las ciencias de la vida. Explican diferentes métodos de evaluación, como el poder de los verdaderos positivos, que se centra en los verdaderos positivos y verdaderos negativos, y en los falsos positivos y falsos negativos. El orador también analiza otras técnicas de evaluación, como la precisión, la especificidad, la recuperación y la exactitud, y la importancia de considerar el equilibrio del conjunto de datos. Luego, presentan la curva característica operativa del receptor (ROC) y cómo ayuda a evaluar la sensibilidad y la especificidad de un clasificador. Además, la curva de recuperación de precisión se menciona como una mejor opción para conjuntos de datos muy desequilibrados para ciertas configuraciones de regresión. Ambas curvas son complementarias y capturan diferentes aspectos del desempeño de un modelo.

  • 00:40:00 En esta sección, el orador analiza el concepto de correlación y cómo se puede utilizar para evaluar predictores de regresión. Explican que la correlación mide la relación entre los valores que se predicen y los valores reales, y que existen diferentes tipos de pruebas de correlación, como la correlación de Pearson y la correlación de rango de Spearman. El orador también menciona la importancia de las pruebas de correlación y cómo se pueden usar para evaluar la precisión del predictor. Explican el uso de pruebas estadísticas como la distribución t de Student y las pruebas binomiales para determinar la probabilidad de obtener un cierto valor de correlación y si se desvía significativamente del valor esperado.

  • 00:45:00 En esta sección, el orador analiza la probabilidad de que el clasificador haga la elección correcta al azar calculando la probabilidad de que k observaciones se clasifiquen correctamente solo por casualidad usando la distribución hipergeométrica. También enfatiza que si está probando múltiples hipótesis, necesita ajustar la probabilidad de nula y puede usar una corrección estricta de Bonferroni o una corrección menos estricta de Benjamin Hofberg para ajustar su umbral. El ponente advierte de los peligros de encontrar correlaciones en casi cualquier lugar con suficientes datos y subraya que la falta de correlación no implica la falta de relaciones. La sección termina con un descanso antes de que el orador pase a discutir las redes neuronales.

  • 00:50:00 En esta sección de la lección, el instructor introduce el concepto de redes neuronales profundas y sus raíces en la jerarquía de abstracción en el aprendizaje. El instructor describe las capas de la red, comenzando con la capa de entrada y progresando a través de varias capas ocultas que aprenden funciones cada vez más complejas. El concepto de filtros convolucionales se menciona brevemente, pero se tratará con mayor profundidad en una lección posterior. El instructor también señala que estas redes están inspiradas en la estructura biológica de las neuronas en el cerebro humano.

  • 00:55:00 En esta sección, el disertante explica los conceptos básicos de una red neuronal de aprendizaje profundo. Describe la estructura de una neurona como una construcción computacional que recibe entradas ponderadas, cruza un umbral y luego envía salidas idénticas a sus descendientes. El aprendizaje en una red neuronal está integrado en estos pesos, y la función que se calcula es una probabilidad transformada basada en las entradas recibidas. El disertante enfatiza que las redes neuronales se volvieron poderosas cuando se movieron más allá de las funciones lineales e introdujeron una no linealidad que puede aprender casi cualquier función. La no linealidad original era la unidad sigmoidea, que representaba una neurona disparando a uno o permaneciendo en cero hasta que se cruzaba un umbral. Más allá de eso, se introdujo la unidad soft plus para aproximar funciones más complejas.

  • 01:00:00 En esta sección de la conferencia, el orador explica el concepto de funciones de activación en el aprendizaje profundo y cómo ayudan a las neuronas a activarse en respuesta a las entradas. Introduce varias funciones de activación como el soft plus, el sigmoide y la unidad lineal rectificada (ReLU), entre otras. El orador también analiza el proceso de aprendizaje de ajustar los pesos para que coincidan con la función de salida y el papel de las derivadas parciales en el ajuste de las actualizaciones de peso para minimizar los errores. Esto, explica, es la base del aprendizaje basado en gradientes.

  • 01:05:00 En esta sección de la conferencia, se introduce el concepto de retropropagación como un método para propagar derivadas a través de una red neuronal para ajustar los pesos. La regla de la cadena se utiliza para calcular la derivada de cada capa en función de la capa anterior, lo que permite realizar ajustes en cada nivel. Se pueden agregar campanas y silbatos adicionales a este proceso, como una tasa de aprendizaje para escalar el gradiente, la disminución del peso para evitar pesos grandes y la consideración del delta en el paso de tiempo anterior para determinar la dirección y la cantidad de cambio necesario.

  • 01:10:00 En esta sección, el orador explica los diferentes métodos para optimizar los pesos en múltiples capas de modelos de aprendizaje profundo. Estos métodos incluyen el uso de la regla de la cadena para calcular las derivadas de la salida con respecto a cada ponderación, así como el descenso de gradiente estocástico que muestrea aleatoriamente un subconjunto de datos de entrenamiento para actualizar las ponderaciones. Además, el orador analiza el concepto de capacidad del modelo y la dimensión VC que describe la capacidad de modelado general de un modelo de aprendizaje profundo en función de sus parámetros y los tipos de funciones que puede calcular. La capacidad de un modelo no paramétrico se define por el tamaño del conjunto de entrenamiento.

  • 01:15:00 En esta sección, se introduce el concepto de k-vecino más cercano y su generalización. Si bien el k-vecino más cercano es un buen método de referencia, puede tener un poder de generalización deficiente porque no aprende la función que separa los conjuntos de datos, lo que dificulta un buen desempeño en entradas no vistas anteriormente. También se analiza la efectividad de la capacidad de un modelo en un gráfico, donde el eje x muestra el número efectivo de parámetros o dimensiones, y aumentar este número puede conducir a mejores coincidencias con los datos, pero con un mayor error de generalización. También se introduce el sesgo o qué tan bien se emparejan los datos dados, y la varianza o qué tan bien se pueden emparejar conjuntos de datos futuros. Finalmente, los modelos se pueden regularizar intercambiando la regularización de parámetros y la regularización de la complejidad del modelo, lo que se puede demostrar comparando conjuntos de datos con diferentes niveles de complejidad neuronal.

  • 01:20:00 En esta sección de la conferencia, el instructor analiza varias técnicas para agregar regularización a las redes neuronales, como la detención temprana, la disminución del peso, la adición de ruido como regularizador y los priores bayesianos. También se discute el concepto de capacidad, que depende de las funciones de activación y del número de pesas. El instructor enfatiza que el equilibrio entre más capas, capas más anchas y más conexiones es un arte más que una teoría, y es esencial lograr el equilibrio correcto de complejidad. El instructor alienta a los estudiantes a presentarse positivamente a sus compañeros de clase y a tomarse el tiempo para conocer y conocer sus perfiles y videos.
 

Redes neuronales convolucionales de CNN - Clase 03 (primavera de 2021)



Redes neuronales convolucionales de CNN - Aprendizaje profundo en ciencias biológicas - Clase 03 (primavera de 2021)

Esta videolección cubre el tema de las redes neuronales convolucionales (CNN) en el aprendizaje profundo para las ciencias de la vida. El orador discute los principios de la corteza visual y cómo se relacionan con las CNN, incluidos los componentes básicos de los sistemas visuales humanos y animales, como los componentes básicos de suma y pesaje y el umbral de activación de polarización de una neurona. Explican que las CNN usan neuronas especializadas para operaciones de detección de bajo nivel y capas de unidades ocultas para el aprendizaje de conceptos abstractos. La conferencia también cubre el papel de las capas de convolución y agrupación, el uso de múltiples filtros para extraer múltiples características y el concepto de transferencia de aprendizaje. Finalmente, también se analizan las no linealidades y el uso de relleno para abordar los casos extremos en la convolución. En general, la conferencia destaca el poder y el potencial de las CNN en una variedad de aplicaciones de ciencias de la vida.

La segunda parte de la conferencia cubre varios conceptos relacionados con las redes neuronales convolucionales (CNN). En la conferencia, el orador habla sobre la importancia de mantener el tamaño de entrada en las CNN, el aumento de datos como un medio para lograr la invariancia a las transformaciones y las diferentes arquitecturas de CNN y sus aplicaciones. La conferencia también cubre los desafíos asociados con el aprendizaje en las CNN profundas, los hiperparámetros y su impacto en el rendimiento general y los enfoques para el ajuste de los hiperparámetros. El ponente destaca la importancia de comprender los principios fundamentales de las CNN y destaca su versatilidad como técnica aplicable en múltiples entornos.

  • 00:00:00 En esta sección, el orador presenta el tema de las redes neuronales convolucionales (CNN) y destaca su importancia en el aprendizaje profundo en varios dominios. El orador acredita el curso 6s191 y las notas de Coursera de Tess Fernandez como excelentes recursos para estudiar las CNN. El orador explica cómo las CNN se inspiraron en las propias redes neuronales del cerebro humano y los hallazgos de los estudios de neurociencia en la corteza visual animal en los años 50 y 60. El orador continúa explicando algunos de los principios clave que descubrieron los estudios fundamentales de la neurociencia, incluido el concepto de tener solo campos receptivos limitados y células que responden a los bordes en los ángulos rectos. Estos conceptos forman la base de los filtros convolucionales y las CNN que se utilizan en la actualidad.

  • 00:05:00 En esta sección, el orador analiza los principios de la corteza visual y cómo se relacionan con las redes neuronales convolucionales (CNN). La corteza visual contiene operaciones primitivas simples como la detección de bordes, que se construyen a partir de neuronas individuales que detectan la luz y la oscuridad en diferentes lugares y umbralizan esa señal. Hay neuronas de orden superior que son invariantes a la posición del borde u objeto detectado, lo que condujo al concepto de invariancia posicional en las capas de agrupación de las CNN. El orador también analiza los componentes básicos de los sistemas visuales humanos y animales, que contienen principios similares que se encuentran en las redes neuronales, como los componentes básicos de suma y pesaje y el umbral de activación de polarización de una neurona.

  • 00:10:00 En esta sección de la conferencia, el orador analiza las funciones de activación en las neuronas, que determinan si una neurona se activa o no en función de la entrada por encima de un cierto umbral. La no linealidad de este proceso permite aprender funciones más complejas, ya que las transformaciones lineales de información lineal siguen siendo transformaciones lineales. Las neuronas están conectadas en redes que tienen propiedades emergentes y permiten el aprendizaje y la memoria. El cerebro humano es extremadamente poderoso, contiene 86 mil millones de neuronas y billones de conexiones que están organizadas en redes simples, grandes y profundas que permiten la abstracción y el reconocimiento de conceptos complejos como bordes y líneas. Se da un ejemplo de cómo se puede crear un detector de bordes en un nivel más bajo de neuronas basado en señalización positiva y negativa en respuesta a áreas claras y oscuras.

  • 00:15:00 En esta sección, el orador explica cómo las conexiones neuronales en el cerebro detectan primitivas lineales y circulares muy básicas, como bordes y barras, y las usan para detectar características más complejas como el color, la curvatura y la orientación. Las capas superiores de la corteza visual del cerebro corresponden a las capas de abstracción en el aprendizaje profundo, que construyen conceptos complejos a partir de partes más simples. La maleabilidad del cerebro también le permite utilizar diferentes partes del cerebro para detectar las señales correspondientes, y los experimentos en animales han demostrado que los circuitos del cerebro son intercambiables y se pueden volver a cablear en caso de lesión. Además, el ponente destaca la tremenda diferencia de tamaño entre los cerebros de los humanos y los ratones, y cómo la expansión del neocórtex en los mamíferos, particularmente en los primates, dio lugar a mayores niveles de abstracción e inteligencia social.

  • 00:20:00 En esta sección, el profesor explica cómo las redes neuronales pueden aprender una inmensa variedad de funciones que se adaptan bien al mundo físico que habitamos, a pesar de no poder aprender todas las funciones matemáticas. La conferencia también explora cómo las ilusiones visuales pueden revelar los elementos básicos y los componentes básicos de los cálculos que se realizan dentro del cerebro, que pueden explotarse mediante el aprendizaje profundo para crear experiencias como ver a una persona convertirse en una monstruosa combinación de animales. Luego, la conferencia pasa a discutir los ingredientes clave de las redes neuronales convolucionales, como la localidad y el cálculo de filtros convolucionales, que se calculan localmente en lugar de en una red completamente conectada.

  • 00:25:00 En esta sección de la conferencia sobre las CNN y el aprendizaje profundo en las ciencias de la vida, el orador analiza varias características clave de las redes neuronales convolucionales. Estos incluyen el uso de neuronas especializadas que llevan a cabo operaciones de detección de bajo nivel, capas de unidades ocultas donde se aprenden conceptos abstractos de partes más simples, funciones de activación que introducen no linealidades, capas de agrupación para invariancia de posición y tiempo de cálculo reducido, filtros múltiples que capturar diferentes aspectos de la imagen original y formas de limitar el peso de las unidades ocultas individuales para la regularización. Todas estas características son importantes para construir CNN efectivas que puedan aprender y reconocer patrones en imágenes complejas o datos genómicos.

  • 00:30:00 En esta sección, el disertante explica que el cerebro humano también usa varios mecanismos para fortalecer las conexiones útiles mientras limita la dependencia excesiva de una sola conexión para una tarea en particular. Menciona los ejemplos de la reducción de la activación de las neuronas con el tiempo y el uso del aprendizaje por refuerzo para mejorar las tareas motoras. También establece paralelismos entre estos mecanismos primitivos de aprendizaje en el cerebro humano y el algoritmo de retropropagación utilizado en las redes neuronales convolucionales. El disertante alienta a los estudiantes a pensar más allá de las arquitecturas actuales y considerar nuevas arquitecturas computacionales que podrían derivarse de primitivas individuales. Finalmente, aborda una pregunta del chat sobre cómo pensar en aplicaciones que necesitan o no localidad dentro de una red totalmente conectada.

  • 00:35:00 En esta sección, el orador analiza las dos partes de las redes neuronales profundas: aprendizaje de representación y clasificación. Al tener capas jerárquicas de aprendizaje, las combinaciones de píxeles se convierten en extracción de características y, a continuación, la detección de características. Esto permite que la red aprenda una función no lineal compleja mediante el acoplamiento de las dos tareas de retropropagación y extracción de características. El orador menciona que este paradigma es muy poderoso y generalizable en diferentes dominios de aplicación. El campo aún está en pañales y hay mucho espacio para la creatividad y la exploración, particularmente en genómica, biología, neurociencia, imágenes y registros médicos electrónicos. Por lo tanto, estos dominios de aplicación pueden impulsar el desarrollo de nuevas arquitecturas que podrían tener una amplia aplicabilidad en la ciencia de datos en diferentes campos.

  • 00:40:00 En esta sección, el orador explica el concepto de redes neuronales convolucionales y el papel de las convoluciones en la explotación de la estructura espacial, la realización de cálculos locales y el intercambio de parámetros en toda la imagen. Al aplicar un filtro o kernel a cada parche de una imagen, la convolución se usa para calcular un mapa de características que nos dice cuánto estaba presente una característica en cada parche de la imagen, haciendo efectivamente la extracción de características. El orador enfatiza el uso de múltiples filtros para extraer múltiples características, como bordes y bigotes, y compartir espacialmente los parámetros de cada filtro para aprender de menos parámetros.

  • 00:45:00 En esta sección sobre las CNN, el orador explica que los parámetros para cada proceso de extracción de características, como la detección de bordes, se comparten y se aplican a toda la imagen a la vez. Cada neurona en una capa oculta recibe información de un parche, calcula una suma ponderada y aplica un sesgo para activarse con una función no lineal. Los filtros convolucionales se utilizan para extraer características de la imagen y aprender representaciones, que se pueden aprender a través de filtros específicos de tareas. Diferentes especies han desarrollado filtros convolucionales codificados desde el nacimiento, que pueden reutilizarse para las tareas más útiles.

  • 00:50:00 En esta sección, el disertante habla sobre el proceso de aprendizaje de filtros a través de redes neuronales convolucionales, que extraen características comunes de las imágenes e identifican características específicas para diferentes tareas. Si bien ciertos filtros están codificados, como los específicos de una especie en particular, otros, como la detección de bordes y rostros, son útiles para diversas aplicaciones. Se analiza el concepto de transferencia de aprendizaje, donde los filtros convolucionales anteriores se pueden aplicar a nuevos datos, para preaprender representaciones de nivel intermedio y alto antes de volver a entrenar para nuevas funciones. La jerarquía de características de bajo a alto nivel se ajusta a la tarea de clasificación en cuestión. El disertante también explica que la convolución se refiere al efecto de torcer una cosa en otra, después de lo cual entra en juego la detección con el uso de no linealidades.

  • 00:55:00 En esta sección, el orador analiza el concepto de no linealidades y cómo permiten la detección al introducir silencio hasta que se observa una característica específica. También analizan el uso de capas de agrupación, que encuentran el valor máximo dentro de una determinada sección y reducen el tamaño de la representación, lo que hace que algunas características detectadas sean más sólidas. La capa completamente conectada luego aprende funciones mucho más complejas y captura combinaciones de las características extraídas de la red, lo que finalmente permite la clasificación. El orador también aborda los casos extremos en la convolución y cómo el relleno de las imágenes con ceros antes de la convolución resuelve este problema.

  • 01:00:00 En esta sección, el orador analiza la importancia de mantener el tamaño de entrada en las redes neuronales convolucionales y las diferentes formas de lograrlo, incluido el relleno cero y la convolución dilatada. El concepto de aumento de datos se presenta como una forma de lograr la invariancia de las transformaciones en el mundo real, como los cambios en la orientación o la forma. Al transformar las imágenes en primer lugar, la red puede aprender a reconocer objetos independientemente de su ubicación u orientación. El orador enfatiza la importancia de aprender millones de características de abajo hacia arriba y transformar imágenes para lograr la invariancia.

  • 01:05:00 En esta sección, el orador resume los conceptos discutidos en las secciones anteriores de la conferencia, que incluyen localidad, filtros y funciones, funciones de activación, agrupación y multimodalidad. Luego muestra un ejemplo de una red neuronal convolucional profunda, que consiste en un volumen de entrada de una imagen RGB, seguido de 20 filtros con un paso de 2, lo que crea un volumen de 10. El orador enfatiza que la cantidad de filtros computados crea un volumen correspondiente, que cambia en cada capa de la red. También demuestra cómo implementar estos conceptos en TensorFlow usando el motor Keras para el aprendizaje profundo, incluidos diferentes tamaños de filtro, funciones de activación, agrupación y tamaño de zancada.

  • 01:10:00 En esta sección, el disertante analiza diferentes arquitecturas de redes neuronales convolucionales y sus aplicaciones, comenzando con LeNet-5 para el reconocimiento de documentos que ayudó a establecer la serie de filtros convolucionales, submuestreo y capas totalmente conectadas que conforman CNN hoy. El orador explica que el entrenamiento de las CNN es un arte, ya que requiere muchos más datos de entrenamiento debido a la mayor cantidad de parámetros y capas. También se enfatiza la importancia de la normalización en el entrenamiento, ya que los datos asimétricos pueden afectar el rendimiento del modelo. En general, el orador destaca la forma natural y efectiva en que las CNN pueden realizar tareas de clasificación.

  • 01:15:00 En esta sección, el disertante analiza varios desafíos asociados con el aprendizaje en redes neuronales convolucionales profundas. Uno de los desafíos son los gradientes que desaparecen o explotan, que se pueden mitigar eligiendo cuidadosamente los valores iniciales y normalizando los datos. El disertante también explica cómo elegir el tamaño del lote, donde puede entrenar en todo el conjunto de datos o usar mini lotes, y habla sobre diferentes técnicas para el entrenamiento, como RMS prop y recocido simulado. La conferencia también cubre los hiperparámetros, que son la arquitectura y los parámetros de entrenamiento, y su impacto en el rendimiento general. Finalmente, el disertante presenta dos enfoques para el ajuste de hiperparámetros, la búsqueda en cuadrícula y la búsqueda aleatoria, y analiza sus ventajas y desventajas.

  • 01:20:00 En esta sección, el orador enfatiza la importancia de los principios fundamentales detrás de las redes neuronales convolucionales en lugar de centrarse en la logística y los enfoques tradicionales. La conferencia cubre las características clave de las CNN, incluidas las circunvoluciones, las representaciones de aprendizaje, la detección, las no linealidades y las capas de agrupación. El orador también destaca los problemas prácticos de hacer que el entrenamiento sea invariable ante pequeñas perturbaciones y abordar diferentes tipos de arquitecturas. Además, la clase discutirá el arte de entrenar modelos en sesiones futuras. En general, la conferencia presenta las CNN como una técnica extremadamente versátil aplicable en múltiples entornos.
 

RNN de redes neuronales recurrentes, GNN de redes neuronales gráficas, LSTM de memoria a largo plazo - Clase 04 (primavera de 2021)



RNN de redes neuronales recurrentes, GNN de redes neuronales gráficas, LSTM de memoria a largo plazo

Este video cubre una variedad de temas que comienzan con las redes neuronales recurrentes (RNN) y su capacidad para codificar el contexto temporal, que es fundamental para el aprendizaje de secuencias. El orador introduce el concepto de modelos de Markov ocultos y sus limitaciones, lo que lleva a la discusión de los módulos de memoria a corto plazo (LSTM) como un enfoque poderoso para tratar con secuencias largas. El video también analiza el módulo transformador, que aprende relaciones temporales sin desenrollar ni usar RNN. Se introducen las redes neuronales gráficas y sus posibles aplicaciones para resolver problemas de redes clásicos y en biología computacional. La charla concluye con una discusión sobre las fronteras de la investigación en redes neuronales de grafos, como su aplicación en modelos de grafos degenerativos y la inferencia de grafos latentes.

Esta segunda parte del video analiza los módulos de redes neuronales recurrentes (RNN), redes neuronales gráficas (GNN) y memoria a largo plazo (LSTM). Explica cómo las redes neuronales feedforward tradicionales tienen limitaciones cuando se trata de datos basados en gráficos, pero los GNN pueden manejar una amplia gama de invariancias y propagar información a través del gráfico. Los oradores también analizan las redes convolucionales gráficas (GCN) y sus ventajas y desafíos. Además, el video describe la importancia de las funciones de atención para hacer que las GNN sean más potentes y flexibles.

  • 00:00:00 En esta sección, el disertante presenta los temas que se tratarán en la clase, incluidas las redes neuronales recurrentes y los módulos de memoria a corto plazo. El disertante analiza cómo las máquinas pueden comprender el contexto y la atención y codificar el contexto temporal utilizando modelos ocultos de Markov y redes neuronales recurrentes. La conferencia también cubre cómo evitar gradientes que se desvanecen mediante el uso de módulos de memoria y presenta el módulo Transformador que puede aprender relaciones temporales sin desenrollar la secuencia. La conferencia también aborda las redes neuronales gráficas y cómo utilizan patrones de conectividad gráfica para guiar el entrenamiento. Luego, el disertante analiza la capacidad del cerebro humano para leer y comprender el contexto y presenta ejemplos de restauración de fonemas y cómo completar las palabras que faltan según el contexto.

  • 00:05:00 En esta sección del video, el orador analiza cómo el cerebro procesa el lenguaje y el sonido al predecir lo que sigue, que es la base de la comprensión. Las redes neuronales recurrentes se utilizan para codificar el contexto temporal cuando se aplica el aprendizaje automático a secuencias para convertir una secuencia de entrada en una secuencia de salida que vive en un dominio diferente, como convertir una secuencia de presiones de sonido en una secuencia de identidades de palabras. El orador también da ejemplos de efectos cognitivos relacionados con la información del contexto auditivo y visual, como el efecto McGurk y la retroalimentación auditiva retardada, y explica cómo funcionan.

  • 00:10:00 En esta sección del video, el orador analiza el poder de usar un modelo de predicción de secuencias para aprender sobre el mundo. Al predecir el siguiente término en una secuencia, el proceso de aprendizaje no supervisado puede convertirse en un proceso de aprendizaje supervisado. Esto permite el uso de métodos diseñados para el aprendizaje supervisado sin necesidad de anotación. El orador explica que se puede aprender una sola función común y aplicarla a toda la secuencia, lo que permite la predicción de eventos futuros. Al incorporar nodos ocultos y dinámicas internas, se pueden construir modelos más complejos y la información se puede almacenar durante mucho tiempo. El orador describe cómo se pueden inferir distribuciones de probabilidad sobre vectores de estado ocultos y cómo se puede usar la entrada para controlar los nodos ocultos directa o indirectamente al proporcionar información al nodo oculto actual.

  • 00:15:00 En esta sección, el orador analiza los modelos ocultos de Markov (HMM) y sus limitaciones. Los HMM tienen dos tipos de parámetros: una matriz de emisión que representa la probabilidad de observar cada salida dado el estado oculto y una matriz de transición que representa la probabilidad de pasar a otro estado oculto dado el actual. Sin embargo, en cada paso de tiempo, solo se puede seleccionar uno de los estados ocultos, y con n estados, solo se pueden recordar n bits de información. Para codificar más información previa se necesitaría una enorme cantidad de estados. Esta limitación se aborda mediante redes neuronales recurrentes (RNN) que permiten la codificación explícita de información.

  • 00:20:00 En esta sección, aprendemos sobre las propiedades de las redes neuronales recurrentes (RNN), que nos permiten almacenar mucha información de manera eficiente utilizando un estado oculto distribuido, actualizado de formas más complicadas con dinámicas no lineales. Mientras que la distribución de probabilidad posterior de estados ocultos en un sistema dinámico lineal o modelo oculto de Markov (HMM) es estocástica, el estado oculto de un RNN es determinista. A diferencia de los HMM o los sistemas dinámicos lineales, que son estocásticos por naturaleza, los RNN pueden tener todo tipo de comportamientos, como oscilaciones o comportamientos caóticos, lo que permite decisiones impredecibles. Las redes feedforward y RNN son las mismas cuando se despliega el tiempo, lo que las hace equivalentes a una red feedforward con un número infinito de pilas, con los mismos pesos compartidos que se utilizan para calcular cada carácter de la red.

  • 00:25:00 En esta sección, el orador explica las arquitecturas específicas que se pueden usar para las redes neuronales recurrentes (RNN) y cómo se pueden entrenar usando retropropagación. Una forma es tener entradas alimentando unidades ocultas y luego tener una sola salida después de toda la secuencia. Otra forma es tener una predicción de salida en cada paso de tiempo, lo que permite que la información fluya entre unidades ocultas y permite la predicción de variables de salida. El mismo algoritmo de retropropagación se puede utilizar para actualizar los pesos de estas arquitecturas. El orador enfatiza que los pesos se comparten en diferentes niveles de la red, lo que permite un aprendizaje más eficiente.

  • 00:30:00 En esta sección, el orador analiza el concepto de retropropagación a través del tiempo en redes neuronales recurrentes (RNN) y cómo permite la codificación de la memoria de pasos de tiempo anteriores. Explican que esto se puede lograr haciendo fluir la salida del paso de tiempo anterior a la unidad oculta actual o alimentando la etiqueta de salida correcta para el enunciado anterior al modelo actual durante el entrenamiento. El proceso de entrenamiento involucra tomar la derivada de la función de pérdida contra cada peso y usar esto para actualizar los pesos bajo restricciones lineales. El orador señala que, si bien las RNN pueden parecer complejas, se pueden entrenar utilizando los mismos procedimientos que otras redes neuronales.

  • 00:35:00 En esta sección, el orador analiza el concepto de modelado de secuencias con herramientas de aprendizaje automático y cómo lidiar con secuencias largas. Explica que en casos como la traducción de oraciones o la transcripción de palabras habladas, las secuencias de entrada deben convertirse en secuencias de salida. Sin embargo, cuando no hay una secuencia objetivo separada, se puede obtener una señal de enseñanza tratando de predecir el siguiente término de la secuencia de entrada. El desafío de este enfoque surge cuando se trata de secuencias muy largas en las que la influencia de una palabra en particular decae con el tiempo. Para lidiar con esto, el orador explica varios métodos, como las redes de estado de eco y la utilización del impulso, pero destaca los módulos de memoria a corto plazo como el enfoque más poderoso. Estos módulos utilizan unidades logísticas y lineales con interacciones multiplicativas para diseñar una celda de memoria que puede recordar valores durante cientos de pasos de tiempo.

  • 00:40:00 En esta sección, el orador explica el concepto de una celda de memoria analógica en las redes neuronales de memoria a corto plazo (LSTM). La celda de memoria es una unidad lineal con un autoenlace que tiene un peso de uno, lo que garantiza que la información permanezca sin cambios y sin diluirse por ningún tipo de pérdida de peso. La celda está controlada por puertas que mantienen una cámara de eco donde la información se repite constantemente hasta que se necesita, y la red decide cuándo recordar u olvidar una información. La activación de las puertas de lectura y mantenimiento permite la recuperación y el mantenimiento de la información, respectivamente. La red tiene la capacidad de recordar, olvidar, almacenar y recuperar un recuerdo, y decide cuándo es útil recordar u olvidar una información en particular. La implementación de estas puertas permite la preservación de la información durante mucho tiempo en redes neuronales recurrentes.

  • 00:45:00 En esta sección, el orador analiza la aplicación de redes neuronales recurrentes (RNN) en la lectura de escritura cursiva. En 2009, se descubrió que los RNN con módulos de memoria a corto plazo eran el mejor sistema para esta tarea. Se utilizó una secuencia de imágenes pequeñas como sustituto de las coordenadas del lápiz para entrenar la red. El ponente muestra una demostración de reconocimiento de escritura a mano en línea, donde se infieren los caracteres a partir de la escritura a lo largo del tiempo y se accede a las probabilidades posteriores de cada uno de esos caracteres. El estado del sistema se mantiene y diferentes puntos reciben diferentes pesos. El orador explica cómo se aprenden los caracteres y qué partes del sistema son importantes. El orador también analiza la inicialización de unidades ocultas y de salida de RNN y cómo su estado inicial puede tratarse como parámetros de aprendizaje en lugar de codificarlos explícitamente.

  • 00:50:00 En esta sección, el video describe un nuevo desarrollo en redes neuronales llamado módulo transformador, que aprende relaciones temporales sin desenrollar y sin usar redes neuronales recurrentes. El módulo transformador utiliza una entrada con una codificación posicional para indicar dónde se encuentra la red en la secuencia sin necesidad de desenrollar la red con el tiempo. El codificador cambia la incrustación de salida en uno en relación con la entrada para predecir el siguiente elemento de la oración, mientras que los módulos de atención determinan los puntos más vitales de la oración. El módulo utiliza una representación de consulta de una palabra en la secuencia, representaciones de claves de todas las palabras en la secuencia y representaciones de valor de todas las palabras en la secuencia para lograr las relaciones temporales.

  • 00:55:00 En esta sección, el orador analiza el Transformador, un tipo de red neuronal que es útil para la traducción de secuencias o cualquier tipo de tarea secuencial. Codifica la información de contexto de la oración completa cada vez que se produce cada palabra, y las relaciones entre palabras consecutivas se codifican en esta relación de entrada-salida, que se desplaza en uno. El orador también presenta redes neuronales gráficas y describe cómo se pueden usar para resolver problemas de redes clásicos, así como la aplicación potencial en biología computacional. La charla concluye con una discusión sobre las fronteras de la investigación de las redes neuronales de grafos, como su aplicación en modelos de grafos degenerativos y la inferencia de grafos latentes.

  • 01:00:00 En esta sección, el orador habla sobre las ventajas de usar redes neuronales convolucionales (CNN) en datos estructurados en cuadrícula como imágenes y el potencial de usar redes neuronales gráficas (GNN) en datos que no son de cuadrícula como redes sociales, mapas de conectividad cerebral y moléculas químicas. El orador también analiza los tres tipos diferentes de funciones que pueden estar presentes en las GNN: funciones de nodo, funciones de borde y funciones a nivel de gráfico. Además, el orador destaca los problemas de usar una red totalmente conectada para predicciones gráficas, incluida la cantidad de parámetros que se escalan con la cantidad de nodos, lo que lo hace poco práctico para muchas situaciones.

  • 01:05:00 En esta sección, el orador analiza algunas de las limitaciones del uso de redes neuronales feedforward tradicionales para datos basados en gráficos, incluido el problema del tamaño del gráfico y la falta de invariancia en el orden de los nodos. Luego introducen redes neuronales gráficas (GNN), que pueden manejar una amplia clase de invariancias y propagar información a través de un gráfico para calcular las características de los nodos y hacer predicciones posteriores. La fórmula básica para las GNN implica obtener información de muestreo de la vecindad circundante del nodo y actualizar la representación del nodo en función de esta información. El orador señala que este proceso es similar al proceso utilizado en las redes neuronales convolucionales (CNN) para datos de imágenes.

  • 01:10:00 En esta sección, el orador analiza el concepto de redes neuronales de gráficos de dos capas y cómo se actualizan para diferentes nodos en un gráfico. Explican que las redes neuronales gráficas son diferentes de otros tipos de redes porque permiten más información en general, en lugar de solo interacciones de orden superior entre diferentes partes del espacio de entrada. El ponente también habla sobre las redes convolucionales de grafos (GCN) y cómo consideran las grafos no dirigidos, con una regla de actualización que aplica una matriz de peso a cada representación oculta de los vecinos de un nodo. También se analiza la escalabilidad de las redes neuronales gráficas, con la sugerencia de submuestrear el número de contribuyentes a las actualizaciones de nodos para evitar que la red explote.

  • 01:15:00 En esta sección, el orador explica las redes neuronales gráficas (GNN), que son un tipo de red neuronal utilizada para datos gráficos. Los GNN dependen menos del peso que las redes totalmente conectadas y no varían con las permutaciones, lo que permite la clasificación en gráficos grandes. Los GNN tienen soporte indirecto para funciones de borde, y una adaptación es usar incrustaciones de borde para pasar mensajes completamente a través de la red. El ponente utiliza las redes de citas como ejemplo y explica cómo funciona el mecanismo de actualización en las GNN.

  • 01:20:00 En esta sección del video, el orador explica cómo funciona una red neuronal gráfica para la actualización de borde a vértice, y cómo la función de atención juega un papel vital para hacer que la red sea flexible y poderosa. El objetivo de la actualización de borde a vértice de GNN es obtener el estado de uno de los bordes, lo que se puede lograr agregando las representaciones de los nodos incidentes y aplicando una función no lineal específica para las actualizaciones de borde. De manera similar, las actualizaciones de vértices involucran información de los bordes incidentes de un nodo. Sin embargo, las activaciones basadas en el borde se vuelven enormes, lo que hace que sea difícil manejar gráficos grandes. La función de atención proporciona una representación vectorial explícita sin incluir toda la información de los bordes, lo que reduce los requisitos computacionales de los modelos y conserva su flexibilidad y potencia. El orador describe cómo los puntajes de atención pueden mostrar cuánto contribuye cada vecino a la actualización del nodo central, lo que permite inferir alguna relación o propiedades de contribución.

  • 01:25:00 En esta sección, los disertantes discuten las redes convolucionales gráficas (GCN) y sus ventajas y desafíos. Los GCN permiten que se apliquen múltiples capas a lo largo del gráfico, y cada actualización tiene la misma forma. Son útiles para la clasificación de nodos, la clasificación de gráficos y la predicción de enlaces. Sin embargo, todavía hay problemas de optimización debido a las actualizaciones paralelas en todo el gráfico, y es posible que sea necesario corregir las constantes de normalización para evitar la desestabilización. Además, las GCN pueden sufrir problemas de expresividad en comparación con otros métodos como Graph Attention Networks (GAT). No obstante, los GCN siguen siendo más rápidos que los métodos que requieren incrustaciones de borde o paso de mensajes neuronales.

  • 01:30:00 En esta sección, el disertante analiza las redes neuronales gráficas (GNN), que son un tipo de modelo que se puede aplicar a gráficos o redes de datos. Los GNN implican tomar el producto punto entre las representaciones de dos nodos en el gráfico, aplicar una función no lineal como un sigmoide y luego producir una probabilidad de la existencia de ese borde. Los GNN también permiten el modelado predictivo en áreas como la interacción de genes en biología. El orador concluye resumiendo los diversos tipos de redes discutidas, incluidas las redes neuronales convolucionales (CNN), las redes neuronales recurrentes (RNN), los módulos de memoria a largo plazo y los módulos de transformador.
 

Aprendizaje profundo interpretable - Aprendizaje profundo en ciencias biológicas - Clase 05 (primavera de 2021)



Aprendizaje profundo interpretable - Aprendizaje profundo en ciencias biológicas - Clase 05 (primavera de 2021)

Este video analiza la importancia de la interpretabilidad en los modelos de aprendizaje profundo, especialmente en el campo de las ciencias de la vida, donde las decisiones pueden tener consecuencias nefastas. El ponente explica dos tipos de interpretabilidad: integrarla en el diseño del modelo desde el principio y desarrollar métodos de interpretabilidad post hoc para modelos ya construidos. Continúan explorando diferentes técnicas para interpretar modelos, incluida la visualización del peso, la construcción de modelos sustitutos y la maximización de la activación, y analizan la importancia de comprender las representaciones internas del modelo. El disertante también explica varios métodos para interpretar las decisiones individuales, como los métodos basados en ejemplos y de atribución. Además, el disertante discute el desafío de interpretar conceptos complejos y las limitaciones de las interpretaciones de modelos de redes neuronales, así como explorar hipótesis relacionadas con la discontinuidad de gradientes en redes neuronales de aprendizaje profundo.

En la segunda parte de la conferencia, el ponente abordó los desafíos de los gradientes discontinuos y las funciones saturadas en los modelos de aprendizaje profundo en el campo de las ciencias de la vida. Propusieron métodos como promediar pequeñas perturbaciones de entrada en múltiples muestras para obtener un gradiente más suave, utilizando ruido aleatorio para resaltar las características más destacadas en la clasificación de imágenes y técnicas de retropropagación como redes neuronales deconvolucionales y retropropagación guiada para interpretar modelos reguladores de genes. El orador también discutió la evaluación cuantitativa de los métodos de atribución, incluido el procedimiento de volteo de píxeles y el enfoque de eliminación y reemplazo de puntaje. Finalmente, enfatizaron la necesidad de la interpretabilidad en los modelos de aprendizaje profundo y las diversas técnicas para lograrlo.

  • 00:00:00 En esta sección, el presentador analiza la importancia de la interpretabilidad en el aprendizaje profundo y los diferentes métodos para lograrlo. Explican que si bien los modelos de aprendizaje profundo pueden superar a los humanos, es importante comprender cómo toman decisiones y si se puede confiar en estas decisiones. La interpretabilidad puede ayudar con la depuración, la realización de descubrimientos y la explicación de las decisiones. El presentador continúa discutiendo los métodos anti-halcón y post hoc para la interpretación, así como la interpretación de modelos versus decisiones. Luego profundizan en métodos específicos para interpretar modelos, como visualización de peso, creación de modelos sustitutos, maximización de activación y modelos basados en ejemplos. Finalmente, el presentador analiza los métodos de atribución y la evaluación de la eficacia de estos métodos a través de medidas cualitativas y cuantitativas.

  • 00:05:00 En esta sección, se enfatiza la importancia de la interpretabilidad en el aprendizaje automático, especialmente en el campo de las ciencias de la vida, donde las decisiones equivocadas pueden tener consecuencias costosas. El enfoque tradicional de construir un modelo gigante sin comprender cómo y por qué funciona ya no es suficiente y, en su lugar, se debe extraer información interpretable de los modelos de caja negra. El aprendizaje automático interpretable proporciona predicciones verificadas optimizadas no solo para el error de generalización, sino también para la experiencia humana. Es importante comprender los mecanismos físicos, biológicos y químicos de la enfermedad para capacitar mejor a los médicos y comprender mejor cómo funciona el cerebro humano. Además, el derecho a la explicación es crucial para combatir los sesgos que pueden ser inherentes a los conjuntos de datos de entrenamiento debido a siglos de discriminación.

  • 00:10:00 En esta sección del video, el orador analiza dos tipos de interpretabilidad en el aprendizaje profundo: la construcción de la interpretabilidad en el diseño del modelo y la construcción de la interpretabilidad post hoc mediante el desarrollo de técnicas especiales para interpretar modelos complejos después de que se hayan construido. . Explican que el aprendizaje profundo tiene millones de parámetros, lo que hace imposible construir modelos interpretables para empezar. Por lo tanto, la atención se centra en el desarrollo de técnicas para la interpretabilidad post hoc en función de su grado de localidad. El orador también analiza formas de construir redes neuronales interpretables tanto en el modelo como en los niveles de decisión.

  • 00:15:00 En esta sección, el ponente analiza los dos tipos de modelos interpretables para el aprendizaje profundo: los que interpretan el modelo en sí y los que interpretan las decisiones. Las decisiones pueden basarse en métodos de atribución o métodos basados en ejemplos. El ponente también habla de analizar las propias representaciones y generar datos a partir del modelo. Presentan cuatro tipos de enfoques para analizar representaciones que incluyen visualización de peso, construcción de modelos sustitutos y comprensión de las entradas que maximizan las unidades de activación. Finalmente, el orador destaca la importancia de comprender las representaciones internas del modelo, específicamente las características jerárquicas extraídas de la mitad izquierda del modelo que pueden proporcionar información sobre cómo los modelos de aprendizaje profundo hacen inferencias.

  • 00:20:00 En esta sección, el disertante analiza la idea de interpretar el aprendizaje profundo observando el funcionamiento interno de la red neuronal. Explica que, al igual que los científicos estudiaron la corteza visual en gatos y monos para comprender cómo las neuronas individuales se disparan en diferentes orientaciones, podemos observar las neuronas que se activan en una red neuronal para comprender las primitivas o características que la red ha aprendido a reconocer. Sin embargo, con millones de parámetros y miles de nodos internos, no es factible visualizar cada uno de ellos. Por lo tanto, el disertante introduce la idea de modelos sustitutos o modelos de aproximación que son más simples e interpretables. La conferencia también cubre la maximización de la activación, donde el objetivo es generar datos que maximicen la activación de una neurona en particular.

  • 00:25:00 En esta sección, el orador discute un problema de optimización que involucra maximizar la probabilidad posterior de clase para una entrada dada mientras también usa un término de regularización para asegurar que la salida sea interpretable por humanos. Explican que simplemente maximizar en función de la probabilidad de clase puede generar imágenes que no tienen mucho sentido, por lo que el término de regularización adicional es necesario para restringir la interpretación de la salida. También tocan el concepto de variables latentes y parámetros que pueden ayudar a parametrizar vectores ruidosos y mejorar la calidad de las interpretaciones. El objetivo es generar datos que coincidan más estrechamente con los datos de entrenamiento para que el resultado se asemeje a los patrones relacionados con la clase y sea más fácil de interpretar para los humanos.

  • 00:30:00 El objetivo es maximizar o minimizar ciertas funciones y luego usar esas instancias para comprender cómo el modelo toma sus decisiones. Esto se puede hacer a través de la maximización de la activación dentro del espacio de posibles entradas, donde la entrada está restringida para provenir de una distribución de datos similar a la humana. Alternativamente, se puede usar un modelo generativo para tomar muestras de la función de densidad de probabilidad de esa distribución. Al obligar a la presentación a estar dentro del espacio del código, las imágenes resultantes son más interpretables y se pueden usar para construir modelos más interpretables. Otras técnicas para construir modelos interpretables incluyen la visualización del peso, la construcción de modelos sustitutos que se aproximen al resultado y la interpretación basada en ejemplos donde se utilizan instancias que maximizan o minimizan ciertas características para comprender el proceso de toma de decisiones del modelo.

  • 00:35:00 En esta sección, el orador analiza cuatro formas diferentes de interpretar las decisiones tomadas por el modelo, específicamente en términos de aplicaciones prácticas. El primer método se basa en ejemplos, lo que implica seleccionar ejemplos mal clasificados y cercanos a la entrada en particular, para enseñarle al modelo cómo mejorar. El segundo método es la atribución activa, que implica observar por qué un gradiente en particular es ruidoso. El tercer método es la atribución basada en gradientes con degradado suave o gradientes interiores, y el último método es la atribución basada en accesorios con convolución y propagación de negro guiada. También se señalan las limitaciones de la interpretación a nivel de modelo, particularmente cuando se trata de determinar la mejor imagen para interpretar la clasificación.

  • 00:40:00 En esta sección, el orador analiza el desafío de interpretar modelos de aprendizaje profundo en términos de encontrar un prototipo o una imagen típica que represente un concepto complejo, como una motocicleta o un girasol. El método basado en ejemplos se presenta como una forma de identificar qué instancia de entrenamiento influye más en una decisión, sin resaltar específicamente las características importantes de esas imágenes. El método tiene como objetivo determinar las imágenes de entrenamiento más cercanas en función de su influencia en la clasificación de una imagen en particular, en lugar de la proximidad de píxeles. El orador también habla sobre la fragilidad de las interpretaciones del modelo de red neuronal y el uso de funciones de influencia para comprender el proceso de aprendizaje subyacente.

  • 00:45:00 En esta sección, el orador presenta dos métodos para interpretar modelos de aprendizaje profundo. La primera es la interpretación basada en ejemplos, que analiza ejemplos individuales en el conjunto de entrenamiento para comprender el proceso de toma de decisiones de la red neuronal. El segundo son los métodos de atribución, que asignan un valor de atribución a cada píxel de una imagen para determinar cuánto contribuye a la decisión de clasificación. El objetivo de ambos métodos es hacer que el aprendizaje automático sea interpretable y comprensible para los humanos, e identificar las características más destacadas de una imagen. Al visualizar los valores de atribución como mapas de calor, los investigadores pueden desarrollar una mejor comprensión de cómo las redes neuronales profundas toman decisiones y qué píxeles de una imagen son los más responsables de esa decisión.

  • 00:50:00 En esta sección, el orador explica cómo calcular la prominencia de una imagen utilizando la misma metodología que la retropropagación durante el entrenamiento. En lugar de mirar las derivadas relativas a los pesos, miran las derivadas relativas a los píxeles. Luego, el mapa de prominencia se calcula atribuyendo visualmente estos píxeles a la imagen. Sin embargo, estos mapas de prominencia tienden a ser ruidosos y poco precisos. El ponente detalla dos hipótesis para explicar por qué esto es así: los píxeles dispersos son importantes para el proceso de toma de decisiones de la red neuronal o los gradientes pueden ser discontinuos. Luego, el orador explica cómo estas hipótesis guiaron el desarrollo de métodos para abordar los mapas de prominencia ruidosos.

  • 00:55:00 En esta sección de la conferencia, el orador analiza tres hipótesis relacionadas con la discontinuidad de los gradientes en las redes neuronales de aprendizaje profundo. La primera hipótesis es que la función que se está aprendiendo no es fluida y, a medida que se agregan más capas, el disparo se vuelve extremadamente discontinuo, lo que lleva a clasificaciones erróneas. La segunda es que los gradientes son discontinuos debido a la cantidad de capas y funciones no derivadas, lo que genera ruido y permite engaños en las funciones de clasificación. La tercera hipótesis sugiere que la función se satura, lo que impide la capacidad de aprender algo más suave. Para mejorar estas derivadas parciales con respecto a la entrada, una posibilidad discutida es agregar ruido para perturbar la entrada y usar el gradiente en la entrada perturbada o tomar el promedio de múltiples perturbaciones para suavizar el gradiente ruidoso.

  • 01:00:00 En esta sección, el orador discutió soluciones para los desafíos de aprendizaje profundo causados por gradientes discontinuos o funciones saturadas. Estos incluían métodos para cambiar los gradientes o la retropropagación y usar múltiples imágenes con ruido agregado. El orador también discutió varios métodos de atribución, como la propagación de relevancia por capas y la elevación profunda, para interpretar modelos reguladores de genes. Para abordar la discontinuidad de los gradientes, sugirieron definir una función de gradiente suave promediando pequeñas perturbaciones de la entrada en muchas muestras, suavizando efectivamente la función de gradiente para operar como una red superficial en lugar de una red profunda. Además, el orador explicó cómo agregar ruido aleatorio a las imágenes podría ayudar a demostrar la solidez del modelo y resaltar las características más destacadas que se utilizan de manera recurrente en la clasificación de imágenes.

  • 01:05:00 En esta sección, el disertante discute tres hipótesis para interpretar modelos de aprendizaje profundo en el campo de las ciencias de la vida. La segunda hipótesis sugiere que los gradientes son discontinuos con cualquier imagen en particular, pero al tomar una muestra de múltiples imágenes que la rodean, se puede obtener un gradiente más suave. La tercera hipótesis sugiere que la función se satura, lo que lleva a activaciones extremas. Para solucionar esto, el profesor propone escalar las imágenes hacia atrás para acercarlas a las funciones distribuibles. Esto se hace a través de degradados interiores que se utilizan para reescalar los píxeles de la imagen. También se exploran los métodos basados en el telón de fondo, como las redes neuronales desconvolutivas y la propagación hacia atrás guiada debido al desafío de los valores puestos a cero en la unidad lineal rectificada.

  • 01:10:00 En esta sección, el orador analiza los desafíos de la retropropagación en el aprendizaje profundo y cómo pueden abordarse utilizando redes neuronales deconvolucionales. Mediante la asignación de patrones de características al espacio de entrada y la reconstrucción de la imagen, las redes neuronales deconvolucionales pueden obtener una reconstrucción de características válida y eliminar el ruido mediante la eliminación de gradientes negativos. El orador también explica cómo se puede usar la retropropagación guiada para combinar información de los pases hacia adelante y hacia atrás para generar imágenes que sean representativas de la imagen original. Además, el disertante analiza los métodos para evaluar estos métodos de atribución, incluidos los enfoques cualitativos y cuantitativos basados en la coherencia y la sensibilidad de clase. Finalmente, el disertante explora diferentes métodos de atribución, como la elevación profunda, los mapas de prominencia y la gradación suave, y su efectividad para capturar píxeles específicos responsables de una clasificación en particular.

  • 01:15:00 En esta sección, el orador analiza la evaluación cuantitativa de los métodos de atribución en el aprendizaje profundo. El objetivo es evaluar si estos métodos capturan correctamente el objeto de interés previsto y distinguen diferentes clases de objetos. El orador presenta el procedimiento de volteo de píxeles para eliminar características individuales con altos valores de atribución y evalúa la función de clasificación para medir la sensibilidad del método. La precisión de las atribuciones de prominencia y las atribuciones de clasificación se puede medir mediante una curva, y el orador sugiere eliminar y volver a entrenar para lograr una mayor precisión. En general, la sección analiza formas cuantitativas de evaluar la eficacia de los métodos de atribución de aprendizaje profundo.

  • 01:20:00 En esta sección, el orador explica cómo se puede medir el rendimiento de un clasificador eliminando características específicas según el método de atribución. El enfoque de "eliminar y reemplazar la puntuación" implica reemplazar un cierto porcentaje de los píxeles más o menos importantes y volver a entrenar la red neuronal profunda para medir el cambio en la precisión. Esto proporciona una métrica cuantitativa para evaluar la precisión de las decisiones de interpretación. El ponente también recapitula la importancia de la interpretabilidad y las diferentes técnicas para interpretar modelos de aprendizaje profundo utilizando métodos de atribución y maximización de activación, así como los desafíos de los métodos post hoc.

  • 01:25:00 En esta sección, el disertante analiza cómo se pueden restringir los modelos de aprendizaje profundo y las características más destacadas que se encuentran mediante la retropropagación, la deconvolución y la retropropagación guiada. También se destacaron varios métodos para calificar estos métodos de división, incluida la coherencia, la sensibilidad de clase y las métricas cuantitativas para eliminar características con alta atribución. Luego, el disertante presentó métodos de eliminación y reentrenamiento en los que se pueden quitar, volver a entrenar y medir la caída en la precisión de los píxeles individuales. La conferencia concluyó con una revisión de los temas tratados y se anunciaron las próximas conferencias.
 

Modelos generativos, redes antagónicas GAN, codificadores automáticos variacionales VAE, aprendizaje de representación - Clase 06 (primavera de 2021)



Modelos generativos, redes antagónicas GAN, codificadores automáticos variacionales VAE, aprendizaje de representación - Clase 06 (primavera de 2021)

Este video analiza el concepto de aprendizaje de representación en el aprendizaje automático, enfatizando su importancia en las tareas de clasificación y el potencial de innovación en el desarrollo de nuevas arquitecturas. Las tareas autosupervisadas y de pretexto se introducen como formas de aprender representaciones sin requerir datos etiquetados, a través de técnicas como codificadores automáticos y codificadores automáticos variacionales (VAEs). El orador también analiza modelos generativos, como VAE y redes adversarias generativas (GAN), que pueden generar nuevos datos manipulando la representación del espacio latente. Se discuten los pros y los contras de cada método, destacando su efectividad pero también sus limitaciones. En general, el video proporciona una descripción general completa de los diferentes enfoques para el aprendizaje de representación y los modelos generativos en el aprendizaje automático.

El video explora los conceptos de redes adversarias generativas (GAN), codificadores automáticos variacionales (VAE) y aprendizaje de representación en modelos generativos. Las GAN implican que el generador y el discriminador tienen objetivos opuestos, y el proceso de entrenamiento es lento para las muestras falsas, pero las mejoras en la resolución y la función del objetivo pueden dar lugar a imágenes de apariencia realista. El orador demuestra cómo las GAN pueden generar habitaciones arquitectónicamente plausibles y transferir una habitación a otra. Los VAE modelan explícitamente funciones de densidad y capturan la diversidad de imágenes del mundo real a través de parámetros espaciales latentes significativos. El orador fomenta la creatividad y la experimentación con arquitecturas y modelos abiertos, y la aplicación de modelos generativos y el aprendizaje de la representación en varios dominios es un campo de rápido crecimiento con posibilidades ilimitadas.

  • 00:00:00 En esta sección, el ponente analiza el concepto de aprendizaje de representación en el aprendizaje automático y cómo se ha utilizado en las redes neuronales convolucionales (CNN) para aprender sobre el mundo. Destacan que el verdadero avance del aprendizaje profundo provino de la capacidad de CNN para aprender no linealidades y representaciones sobre el mundo a través de la extracción de características. El orador argumenta que las tareas de clasificación están impulsando la extracción de características y que de aquí es de donde proviene toda la representación del conocimiento del mundo. También sugieren que existe potencial para la innovación en el desarrollo de nuevas arquitecturas para el aprendizaje de la representación en varios dominios que van más allá de las arquitecturas existentes. Finalmente, afirman que la parte más emocionante de los modelos generativos es la representación del espacio latente en lugar de las etiquetas y que tales modelos pueden usarse para aprender un modelo del mundo sin depender de las etiquetas.

  • 00:05:00 En esta sección, el orador analiza el aprendizaje de representación y el uso del aprendizaje autosupervisado para este propósito. El aprendizaje autosupervisado implica usar parte de los datos para entrenar otra parte de los datos y engañar a los datos para que sean su propio supervisor. Esto permite el aprendizaje de representaciones geniales que pueden usarse para generar vistas del mundo. Los modelos generativos funcionan ejecutando el modelo hacia atrás y pasando de la representación comprimida del mundo a más ejemplos del mismo. Otro enfoque para el aprendizaje de representaciones son las tareas previas al texto, donde la tarea en cuestión es simplemente una excusa para aprender representaciones. El ejemplo dado es predecirse a sí mismo, que es de lo que se tratan los codificadores automáticos. El concepto de pasar por una representación comprimida y volver a expandirla en la imagen misma a través de una abrazadera es lo suficientemente significativo como para que se pueda aprender una representación subyacente del mundo. Los codificadores automáticos variacionales modelan explícitamente la varianza y las distribuciones.

  • 00:10:00 En esta sección, el orador analiza el concepto de tareas de pretexto, que se refiere al procesamiento de señales de entrada a través de una red para aprender representaciones de la red y usar la señal de entrada para crear una señal de entrenamiento que es una tarea que uno no realmente no me importa. Los ejemplos de tareas de pretexto incluyen predecir imágenes antes y después, predecir los píxeles restantes de una imagen después de quitar un parche y colorear imágenes en blanco y negro. El objetivo de las tareas de pretexto es forzarse a uno mismo a aprender representaciones del mundo, lo que lleva a tareas de aprendizaje supervisadas efectivas. La importancia de comprender este concepto es crucial, ya que conduce a los temas de discusión posteriores, como los codificadores automáticos, los codificadores automáticos variacionales y las redes antagónicas generativas.

  • 00:15:00 En esta sección, se introduce el concepto de aprendizaje autosupervisado como una forma de aprender buenas representaciones mediante la construcción de tareas de pretexto que permiten el aprendizaje sin requerir datos etiquetados. Las tareas de pretexto incluyen inferir la estructura de una imagen, transformar imágenes o usar múltiples imágenes, entre otras. Un ejemplo de una tarea de pretexto es inferir la orientación relativa de los parches de imagen, mientras que otro es una tarea de rompecabezas en la que se debe reconstruir la imagen original. Se discuten los pros y los contras de cada método autosupervisado, destacando su efectividad pero también sus limitaciones, como asumir orientaciones canónicas fotográficas en imágenes de entrenamiento o espacio exterior limitado.

  • 00:20:00 En esta sección, el ponente explica el concepto de tareas de pretexto, construyendo el mismo tipo de concepto de tareas de pretexto y aplicándolos a diferentes ejemplos para aprender una representación del mundo que nos hará resolver tareas aparentemente complejas en realidad. aprender algo interesante sobre el mundo. Uno de los ejemplos incluye la creación de una representación de codificador y decodificador para aprender representaciones de características de menor dimensión a partir de datos no etiquetados que está entrenando una tarea de aprendizaje no supervisada en una tarea de aprendizaje supervisada. El objetivo es forzar representaciones significativas de variaciones de datos y usar características para construir la versión decodificada de su imagen original codificada, y la función de pérdida es la diferencia entre el original y el predicho.

  • 00:25:00 En esta sección, el ponente explica cómo se pueden usar los codificadores automáticos para construir representaciones del mundo y generar imágenes a través de una función de generador. El vector z en los codificadores automáticos puede proporcionar información significativa sobre las características relativas y la presencia de diferentes características en el mundo, que se pueden usar para generar imágenes adicionales. El codificador y el decodificador se pueden usar por separado para diferentes tareas, como usar el decodificador como modelo generativo y el codificador como un vector espacial de características para el aprendizaje de representación. Luego, el orador presenta el concepto de codificadores automáticos variacionales (VAEs), que es un giro probabilístico de los codificadores automáticos que nos permite tomar muestras del modelo para generar datos adicionales. Los VAE aprenden de una representación multidimensional de un conjunto de escalares y varianzas asociadas para cada escalar. Al tomar muestras del anterior verdadero del vector espacial latente, podemos generar imágenes basadas en varios atributos de la imagen.

  • 00:30:00 En esta sección, el orador analiza los modelos generativos y su objetivo de capturar el mundo mediante el ajuste de varios vectores en el codificador automático. Estos vectores terminan siendo representaciones significativas del mundo, lo que permite el muestreo de diferentes imágenes al variar los parámetros. La estrategia para entrenar los modelos generativos es maximizar la probabilidad de los datos de entrenamiento aprendiendo los parámetros del modelo. Luego, el orador presenta codificadores automáticos variacionales, que generan modelos probabilísticamente al modelar explícitamente la media y la varianza de los datos. Al hacer que el codificador proporcione tanto una sola z como una variación de la z, el hablante puede muestrear ambas distribuciones normales y reconocer diferentes variaciones de objetos, como barcos.

  • 00:35:00 En esta sección, el orador explica el concepto de autocodificadores variacionales (VAEs) y cómo funcionan. Los VAE consisten en una red codificadora que asigna datos de entrada a un espacio latente, una red decodificadora que genera datos de salida del espacio latente y una red de generación que genera imágenes a partir de la representación aprendida por la red codificadora. El ponente explica que la función de pérdida de VAE es un límite inferior variacional que maximiza la reconstrucción de los datos de entrada y la aproximación de la distribución previa de imágenes utilizando la red del decodificador. El orador también menciona que el término de divergencia KL es intratable pero puede tratarse como un límite inferior para la optimización a través del descenso de gradiente.

  • 00:40:00 En esta sección, el orador explica cómo los modelos generativos, como los codificadores automáticos variacionales (VAE), se pueden usar para construir una representación del mundo con características significativas. Al codificar imágenes usando solo dos dimensiones, el VAE puede capturar el espacio de todos los caracteres posibles y generar cualquier tipo de carácter que pueda representarse usando solo una coordenada bidimensional. Al diagonalizar el anterior en z, la red está aprendiendo variables latentes independientes y las diferentes dimensiones de z codifican factores de variación interpretables en una buena representación de características. Esta red codificadora permite a los usuarios generar datos y decodificar el espacio latente a través de la distribución previa de z, lo que convierte a los VAE en una herramienta útil para el aprendizaje de representaciones.

  • 00:45:00 En esta sección, el video analiza el uso de codificadores automáticos variacionales (VAE) como un enfoque basado en principios para los modelos generativos que permite la inferencia del espacio latente dado x, que puede ser una representación útil para otras tareas. Sin embargo, los VAE tienen algunas desventajas, como maximizar el límite inferior de la probabilidad, que no es tan bueno como evaluar explícitamente la probabilidad. Las muestras generadas a partir de VAE también son más borrosas y de menor calidad en comparación con las de las redes antagónicas generativas (GAN). Hay investigaciones en curso para mejorar la calidad de las muestras de VAE, como el uso de aproximaciones más flexibles para distribuciones posteriores más ricas y la incorporación de estructuras en las variables latentes. El video también resume los puntos clave de las secciones anteriores sobre generación, aprendizaje no supervisado y parámetros de espacio latente.

  • 00:50:00 En esta sección, se analiza el concepto de redes antagónicas generativas (GAN). Las GAN están diseñadas para generar imágenes complejas de alta dimensión mediante el muestreo de una distribución simple, como ruido aleatorio, y transformaciones de aprendizaje para crear imágenes a partir de un conjunto de entrenamiento. El sistema consta de una red generadora para crear imágenes falsas y una red discriminadora para distinguir entre imágenes reales y falsas. El objetivo es entrenar al generador para crear imágenes más realistas engañando al discriminador, que se convierte en un adversario en el proceso. El sistema es autosupervisado, lo que significa que no es necesario el etiquetado manual y reemplaza la necesidad de evaluadores humanos.

  • 00:55:00 En esta sección, el orador explica el concepto de redes adversarias generativas (GAN) que utilizan un enfoque de juego mini-max para entrenar un generador y una red discriminadora. El discriminador está capacitado para determinar si las imágenes generadas son reales o falsas, mientras que el generador está capacitado para crear imágenes que pueden engañar al discriminador para que crea que son reales. A través de esta función de verosimilitud conjunta, los pesos y parámetros de ambas redes se entrenan simultáneamente, con el objetivo de que el discriminador emita una puntuación de 1 para imágenes reales y 0 para imágenes falsas. El generador, por su parte, pretende minimizar esa puntuación generando imágenes indistinguibles de las reales.

  • 01:00:00 En esta sección, se explica el concepto de Redes adversarias generativas (GAN), donde un generador y un discriminador tienen objetivos opuestos en un escenario similar a un juego. El generador intenta producir datos falsos que engañarán al discriminador, que ha aprendido a clasificar correctamente los datos reales. Sin embargo, el entrenamiento es lento cuando la muestra es falsa, por lo que se utiliza un truco en el que se cambia el objetivo del generador para maximizar la probabilidad de que el discriminador se equivoque con los datos falsos. El entrenamiento conjunto de las dos redes puede ser un desafío, pero aumentar progresivamente la resolución de las imágenes puede mejorar la estabilidad. El algoritmo de entrenamiento GAN implica alternar entre actualizar el discriminador ascendiendo el gradiente estocástico y actualizar el generador utilizando la función objetivo mejorada.

  • 01:05:00 En esta sección, el video analiza el concepto de redes adversarias generativas (GAN) y el proceso de capacitación involucrado en la construcción de una red generadora para crear imágenes realistas. El video explica cómo se entrena la red discriminadora para distinguir entre las imágenes generadas y las imágenes reales, y cómo se entrena la red generadora para mejorar la calidad de las imágenes generadas hasta el punto de que superan el rendimiento humano. El video explica además cómo construir arquitecturas convolucionales profundas con convoluciones fraccionadamente estriadas y cómo usar las funciones de activación de ReLU y ReLU con fugas para obtener imágenes de aspecto realista. El video demuestra el potencial del uso de GAN para generar habitaciones arquitectónicamente plausibles y muestra cómo transferir una habitación a otra mediante la interpolación entre coordenadas espaciales latentes.

  • 01:10:00 En esta sección, el orador analiza modelos generativos como GAN, codificadores automáticos variacionales (VAEs) y aprendizaje de representación. El objetivo de estos modelos es generar muestras diversas y realistas aprendiendo los patrones y estilos subyacentes del mundo real. El orador presenta ejemplos de cómo estos modelos son capaces de realizar diversas tareas de manipulación de imágenes, como la ampliación, la transferencia de conocimiento del dominio y la síntesis de texturas. El ponente también destaca los avances realizados en estos modelos, como las GAN progresivas, que permiten generar imágenes de alta resolución, y el sitio web "Esta persona no existe" de Nvidia, que utiliza una gran cantidad de espacios de parámetros para aprender parámetros ortogonales que permiten la descomposición de los diferentes componentes de la imagen.

  • 01:15:00 En esta sección, el orador explica una taxonomía de modelos generativos, que puede implicar el modelado de funciones de densidad explícitas o implícitas. Las redes antagónicas generativas (GAN) modelan las funciones de densidad implícitamente a través del generador de acoplamiento y las redes discriminadoras, mientras que los codificadores automáticos variacionales (VAEs) modelan las funciones de densidad explícitamente. El poder del aprendizaje profundo radica en el aprendizaje de la representación, y el orador fomenta la creatividad y la experimentación con las muchas arquitecturas y modelos abiertos del campo joven. El uso de tareas de pretexto, como predecirse a sí mismo o completar los parches faltantes, puede ayudar a aprender representaciones latentes significativas del mundo y avanzar hacia modelos verdaderamente generativos que puedan muestrear una distribución real de parámetros espaciales latentes.

  • 01:20:00 En esta sección, el orador analiza el concepto de capturar la diversidad de imágenes del mundo real a través de parámetros de espacio latente significativos en codificadores automáticos variacionales (VAEs). Al restringir los parámetros del espacio latente para que sean ortogonales y distintos entre sí, las imágenes resultantes pueden ser indistinguibles de las personas reales. Además, el orador señala que la aplicación de modelos generativos y el aprendizaje de representaciones es un campo en rápido crecimiento con posibilidades ilimitadas en varios dominios.
 

Genómica regulatoria: aprendizaje profundo en ciencias de la vida: Clase 07 (primavera de 2021)



Genómica regulatoria: aprendizaje profundo en ciencias de la vida: clase 07 (primavera de 2021)

La conferencia cubre el campo de la genómica reguladora, incluidos los fundamentos biológicos de la regulación génica, los métodos clásicos para la genómica reguladora, el descubrimiento de motivos utilizando redes neuronales convolucionales y el uso de modelos de aprendizaje automático para comprender cómo la secuencia codifica las propiedades de regulación génica. El orador explica la importancia de los motivos reguladores en la regulación génica y cómo las alteraciones de estos motivos pueden provocar enfermedades. Introducen un nuevo modelo utilizando una red neuronal convolucional que asigna lecturas de secuenciación al genoma y cuenta cuántos extremos de cinco primos tiene cada par de bases en las dos hebras. El modelo se puede usar para múltiples lecturas de diferentes proteínas y se puede ajustar por separado o simultáneamente usando un modelo multitarea. El orador también muestra cómo el modelo puede analizar cualquier tipo de ensayo, incluidos los datos genómicos, utilizando marcos de interpretación que descubren historias biológicas sobre cómo la sintaxis afecta la cooperatividad de TF. Los modelos pueden hacer predicciones que se validan mediante experimentos CRISPR de alta resolución.

El video analiza cómo el aprendizaje profundo puede mejorar la calidad de los datos ATAC-seq de baja cobertura al mejorar y eliminar los picos de señal. AttackWorks es un modelo de aprendizaje profundo que toma datos de cobertura y utiliza una arquitectura de red neuronal residual para mejorar la precisión de la señal e identificar sitios de cromatina accesibles. El orador demuestra cómo se puede usar AttackWorks para manejar datos de baja calidad y aumentar la resolución del estudio de la accesibilidad de la cromatina unicelular. También describen un experimento específico sobre células madre hematopoyéticas que utilizó ATAC-seq para identificar elementos reguladores específicos involucrados en la preparación del linaje. El orador invita a los estudiantes a buscar pasantías o colaboraciones.

  • 00:00:00 En esta sección, el disertante introduce el campo de la genómica regulatoria e invita a oradores invitados a discutir artículos influyentes y brindar oportunidades de colaboración y pasantías para los estudiantes. La conferencia es el comienzo del Módulo 2 sobre regulación génica y cubre los fundamentos biológicos de la regulación génica, los métodos clásicos para la genómica reguladora y el descubrimiento de motivos utilizando redes neuronales convolucionales. La conferencia enfatiza la complejidad del código genético, lo que permite la construcción y el desarrollo de un organismo autocurativo con intrincadas interconexiones en todos los aspectos del cuerpo, desde la cabeza hasta los pies.

  • 00:05:00 En esta sección, se discute la complejidad de las células y cómo recuerdan su identidad a pesar de no tener información contextual. También se destaca el circuito regulador de las células, que se basa en un conjunto de primitivas y construcciones que permiten a las células recordar el estado de cada parte del genoma. El empaquetamiento del ADN en construcciones tanto estructurales como funcionales es parte integral de este proceso, lo que permite que las células compacten tanto ADN en su interior. Este empaquetamiento se realiza a través de nucleosomas, pequeñas perlas en forma de cadena de ADN, compuestas por cuatro proteínas histonas, cada una con una larga cola de aminoácidos que puede modificarse postraduccionalmente con diferentes modificaciones de histonas. Estas modificaciones funcionan con marcas epigenómicas adicionales, como los dinucleótidos CPG, directamente en el ADN para permitir que las células recuerden su identidad.

  • 00:10:00 En esta sección, el disertante analiza los tres tipos de modificaciones en epigenómica: accesibilidad del ADN, modificaciones de histonas y metilación del ADN. Explica cómo estas modificaciones pueden afectar la regulación génica y la unión de los factores de transcripción. Al usar el lenguaje de la epigenómica, uno puede programar cada tipo de célula en el cuerpo ajustando la compactación del ADN a las firmas específicas de las regiones promotoras. Los promotores, las regiones transcritas, las regiones reprimidas y las regiones potenciadoras están todas marcadas por diferentes conjuntos de marcas que pueden identificarse y estudiarse. Los potenciadores, en particular, son extremadamente dinámicos y se caracterizan por la monometilación de H3K4, la acetilación de H3K27 y la accesibilidad al ADN.

  • 00:15:00 En esta sección, el disertante explica el concepto de "estados de cromatina", que son diferentes estados de la cromatina correspondientes a regiones potenciadoras, promotoras, transcritas y reprimidas, entre otras. Se utiliza un modelo de Markov oculto multivariante para descubrir estos estados de cromatina, y esto se utiliza para localizar regiones potenciadoras, regiones promotoras y regiones transcritas en diferentes tipos de células del cuerpo. También se explica la forma en que las proteínas reconocen el ADN, con factores de transcripción que utilizan dominios de unión al ADN para reconocer secuencias de ADN específicas en el genoma. El disertante también habla sobre motivos de ADN y matrices de peso de posición, que permiten el reconocimiento de la especificidad de una secuencia de ADN, y medidas teóricas de información que distinguen sitios de unión para reguladores.

  • 00:20:00 En esta sección de la conferencia, el orador analiza la importancia de los motivos reguladores en la regulación génica y cómo las alteraciones de estos motivos pueden provocar enfermedades. Luego, el orador explica tres tecnologías para sondear la regulación génica: inmunoprecipitación de cromatina, accesibilidad al ADN y ATAC-seq. Estas tecnologías se pueden usar para mapear las ubicaciones de los potenciadores y descubrir el lenguaje del ADN mediante el uso de motivos y la construcción de modelos de aprendizaje profundo.

  • 00:25:00 En esta sección del video, el orador analiza el uso de modelos de aprendizaje automático para comprender cómo la secuencia codifica las propiedades de regulación de genes. Ella presenta diferentes experimentos que perfilan el ADN regulador y destaca la necesidad de comprender la compleja sintaxis de los elementos reguladores para impulsar respuestas específicas. El problema se modela como una tarea de aprendizaje automático en la que cada genoma se divide en pequeños fragmentos de miles de pares de bases, y cada uno de estos pares de bases está asociado con alguna señal del experimento.

  • 00:30:00 En esta sección, el orador analiza el enfoque tradicional de resumir la información genética mediante el mapeo de secuencias a escalares utilizando varios modelos de aprendizaje automático. Sin embargo, este enfoque da como resultado una pérdida de información, ya que los perfiles de cobertura de lectura con una resolución de un solo nucleótido contienen geometrías que reflejan la interacción del ADN de la proteína, lo que da como resultado huellas de alta resolución. Estos detalles intrincados se pierden al resumir la información en un escalar. Para solucionar este problema, el orador enfatiza la necesidad de construir un nuevo modelo que pueda modelar los datos en su resolución más básica, lo cual se logra con una red neuronal convolucional que mapea las lecturas de secuenciación del genoma y cuenta cuántos extremos de cinco primos tiene cada uno. par de bases en las dos hebras tiene. Luego usan una red neuronal que hace esta traducción, comenzando con la secuencia, en lecturas de valores reales, que se mueven hacia el perfil, lo que da como resultado una secuencia directa al modelo de perfil.

  • 00:35:00 En esta sección, el orador explica el uso de funciones de pérdida para modelar recuentos de lecturas que caen en una secuencia y cómo esas lecturas se distribuyen entre pares de bases. Utilizan una combinación de error cuadrático medio para recuentos totales y probabilidad logarítmica negativa multinomial para la distribución precisa de lecturas en cada par de bases. El modelo se puede usar para múltiples lecturas de diferentes proteínas y se puede ajustar por separado o simultáneamente usando un modelo multitarea. El ponente aplica este modelo a cuatro famosos factores de transcripción de pluripotencia en células madre embrionarias de ratón utilizando experimentos de nexo de chip con huellas de alta resolución.

  • 00:40:00 En esta sección, el orador se centra en la precisión de los modelos al hacer predicciones sobre potenciadores en el genoma, que son muy precisas a pesar de cierto ruido o diferencias de los datos observados debido a la eliminación de ruido, la imputación y otros factores. Para evaluar el rendimiento de todo el genoma de los modelos, utilizan dos métricas: la divergencia de Jensen-Shannon y la similitud entre experimentos replicados, mostrando el primero un mejor rendimiento que el segundo, que se calcula para proporcionar límites superior e inferior. Luego, el orador explica su enfoque de interpretación, utilizando el algoritmo DeepLift para descomponer recursivamente las contribuciones de las neuronas a través de capas y nucleótidos, brindando interpretaciones de alta resolución de qué partes de la secuencia impulsan la unión por cada uno de los cuatro factores de transcripción, revelando una sintaxis combinatoria.

  • 00:45:00 En esta sección, el orador analiza dos métodos utilizados para resumir los patrones aprendidos por el modelo en todo el genoma. El primer método, Modisco, toma todas las secuencias unidas por una proteína de interés e infiere puntuaciones de elevación profunda para cada nucleótido en cada secuencia. Luego, las secuencias se agrupan en función de la similitud y se colapsan en motivos no redundantes. El segundo método se centra en la sintaxis, o los arreglos de orden superior de motivos que impulsan la unión cooperativa. Usando el ejemplo del motivo nano, la red neuronal puede detectar nucleótidos importantes que flanquean el sitio central e identificar patrones periódicos con precisión en diez pares y medio de bases, lo que indica que nano se une al ADN de una manera que implica que algo suceda en el mismo lado. de la hélice del ADN.

  • 00:50:00 En esta sección, el orador analiza una preferencia de sintaxis suave en el ADN que se demuestra a través de un espaciado preferido de múltiplos de diez pares y medio de bases. El orador muestra cómo el modelo puede aprender esta sintaxis a través de la presencia de picos sutiles en la señal que se ve en el genoma, lo que le permite co-localizarse con sitios específicos y aprender la sintaxis que impulsa la unión. El orador también describe experimentos realizados in silico para obtener información sobre cómo la sintaxis impulsa la unión de diferentes proteínas, incluido un experimento sintético en el que dos motivos se incrustan en una secuencia aleatoria y el espacio entre ellos se cambia para predecir la unión de proteínas, así como un Experimento CRISPR in silico en el que se mutan potenciadores reales y el modelo predice los efectos de la unión de cuatro proteínas. El hablante señala que la sintaxis se aprende en capas superiores del modelo y muestra que su eliminación hace que la sintaxis desaparezca por completo.

  • 00:55:00 En esta sección, el orador explica un experimento sintético que utiliza un potenciador unido a OP4 y nano para mostrar los efectos de eliminar motivos específicos. El modelo predice los efectos de eliminar los motivos y los experimentos muestran el mismo efecto, validando así las predicciones del modelo. El orador presenta BPNet, un modelo que puede analizar cualquier tipo de ensayo, incluidos los datos genómicos, utilizando marcos de interpretación que descubren historias biológicas sobre cómo la sintaxis afecta la cooperatividad de TF. Los modelos pueden hacer predicciones que se validan mediante experimentos CRISPR de alta resolución. La charla finaliza con una discusión de un artículo reciente sobre la mejora basada en el aprendizaje profundo de los datos epigenómicos con ATAC-seq, que es una colaboración entre el equipo del orador y el laboratorio de Bowing Rosenthal.

  • 01:00:00 En esta sección, se explica el concepto de accesibilidad de la cromatina a través de la secuenciación. Los picos en la pista de cobertura representan las regiones reguladoras activas del genoma, lo que permite la identificación de elementos reguladores activos en diferentes tipos de células o tejidos. Ataxi también se puede realizar a nivel de una sola célula, proporcionando una mayor resolución en biología. Sin embargo, la calidad de los datos puede ser un problema, ya que la profundidad de secuenciación, la preparación de muestras y la cantidad de células en un experimento Ataxi de una sola célula pueden afectar los resultados. Attack funciona como un modelo de aprendizaje profundo desarrollado para abordar algunos de estos problemas.

  • 01:05:00 En esta sección, el orador analiza la herramienta AttackWorks, que toma la pista de cobertura de un experimento ruidoso y utiliza una arquitectura de red neuronal residual para reducir el ruido y mejorar la señal atáxica, así como para identificar ubicaciones de picos o accesibles. sitios de cromatina. El modelo utiliza capas convolucionales unidimensionales y convoluciones dilatadas, e incluye una función de pérdida de varias partes que mide la precisión de la pista de cobertura sin ruido y la precisión de clasificación de las ubicaciones de los picos. A diferencia de otros modelos, AttackWorks solo toma datos de cobertura en lugar de la secuencia del genoma para que sea más transferible entre diferentes tipos de células. El orador explica la estrategia de entrenamiento simple utilizada para entrenar el modelo y muestra resultados de ejemplo de su uso en diferentes tipos de células humanas.

  • 01:10:00 En esta sección, el orador explica cómo se puede usar el aprendizaje profundo para mejorar la calidad de los datos ATAC-seq de baja cobertura eliminando el ruido de la señal y mejorando los picos que antes eran difíciles de identificar. Muestran ejemplos de cómo funciona el ataque, un modelo de aprendizaje profundo, capaz de distinguir picos del ruido cercano e identificar con precisión la ubicación de la cromatina accesible en diferentes tipos de células, incluso en datos nuevos que no estaban presentes en los datos de entrenamiento. También discuten cómo funciona el ataque puede reducir el costo de los experimentos al producir resultados de la misma calidad con menos secuenciación. Además, demuestran cómo funciona el ataque que puede manejar datos ATAC-seq de baja calidad limpiando el ruido de fondo e identificando picos que coinciden estrechamente con datos de alta calidad. Finalmente, miden el rendimiento de los trabajos de ataque observando el enriquecimiento de la cobertura en torno a los sitios de inicio de la transcripción.

  • 01:15:00 En esta sección, el orador analiza cómo se puede aplicar el aprendizaje profundo para abordar el problema de la capacidad limitada para estudiar pequeñas poblaciones de células en datos atáxicos de una sola célula. Pueden seleccionar aleatoriamente un subconjunto de células de un tipo abundante de células y usarlas para obtener una señal ruidosa. Luego pueden entrenar un modelo de trabajo de ataque para tomar la señal de unas pocas celdas y eliminar el ruido para predecir cuál sería la señal de muchas celdas.
    parece. Una vez que tienen este modelo entrenado, pueden aplicarlo a pequeñas poblaciones de muy pocas células para predecir cómo se verían los datos si tuvieran más células para secuenciar. Este enfoque aumenta significativamente la resolución a la que pueden estudiar la accesibilidad de la cromatina de una sola célula y muestran que los modelos son transferibles entre experimentos, tipos de células e incluso especies.

  • 01:20:00 En esta sección, el orador analiza un experimento de secuenciación de una sola célula en células madre hematopoyéticas, que pueden diferenciarse en el linaje de células linfoides o eritroides. El experimento reveló heterogeneidad en la población de células individuales e identificó subpoblaciones de células que están preparadas para diferenciarse en uno de los dos linajes. El equipo utilizó ATAC-seq para eliminar el ruido de la señal e identificar elementos reguladores específicos que controlan el proceso de preparación del linaje. Reconocen al equipo involucrado en el proyecto e invitan a los estudiantes a buscar pasantías o colaboraciones.
 

Aprendizaje profundo para la genómica regulatoria - Unión de reguladores, TF de factores de transcripción - Clase 08 (primavera de 2021)



Aprendizaje profundo para la genómica regulatoria - Unión de reguladores, TF de factores de transcripción - Clase 08 (primavera de 2021)

El video analiza el uso del aprendizaje profundo para la genómica reguladora y se centra en cómo la secuencia de ADN puede revelar diferentes motivos presentes en las regiones potenciadoras y promotoras, y su bucle 3D. El video explica cómo la tecnología de captura de confirmación de cromosomas (3C) puede investigar la organización cromosómica, y la tecnología Hi-C puede identificar dominios asociados topológicamente (TAD), que interactúan entre sí, y el patrón de compartimiento en el genoma. Los filtros convolucionales se aplican en cada posición de la secuencia de ADN para detectar diferentes características o motivos, y el marco de aprendizaje profundo puede aprender propiedades, filtros y motivos comunes de la secuencia de ADN, lo que permite llevar a cabo diversas tareas de predicción. El video también menciona cómo el aprendizaje multitarea es beneficioso, y el uso de capas adicionales en la red de aprendizaje profundo para reconocer y combinar múltiples representaciones de bloques de construcción de motivos de factores de transcripción podría permitir un reconocimiento más eficiente de motivos complejos.

El orador en este video analiza el uso del aprendizaje profundo para la genómica reguladora con un enfoque en la unión del factor de transcripción y la predicción de la expresión génica. Exploran el uso de estructuras de convolución y convoluciones dilatadas para traer grandes regiones de ADN y hacer predicciones en un marco multitarea para datos de cromatina y expresión génica. El orador también cubre el uso de conexiones residuales para entrenar redes neuronales profundas y explica cómo el modelo puede predecir contactos 3D utilizando datos y modelos IC. En general, el aprendizaje profundo puede ser una herramienta poderosa para analizar datos genómicos y hacer predicciones basadas en secuencias de ADN con suficientes datos y las transformaciones correctas.

  • 00:00:00 En esta sección, el ponente analiza el uso de la secuencia de ADN y el aprendizaje profundo para predecir las características del genoma regulador de genes, centrándose en distinguir diferentes motivos que componen las regiones potenciadoras y promotoras y su bucle 3D. El orador describe el uso de matrices de peso de posición (PWM) para determinar la especificidad de la unión de cada factor de transcripción, que luego se usa para predecir la función reguladora de genes. La inmunoprecipitación de cromatina también se menciona como una tecnología utilizada para perfilar regiones reguladoras en el genoma.

  • 00:05:00 En esta sección, el orador explica cómo la comprensión de la estructura tridimensional de la cromatina puede revelar dónde se unen los diferentes factores de transcripción. El núcleo contiene todo el ADN de una célula y está organizado espacialmente con regiones activas alejadas de la lámina nuclear y más cerca del centro del núcleo. La captura de confirmación cromosómica (3C) es una técnica que se utiliza para sondear la organización cromosómica cortando al azar hebras de ADN y luego volviéndolas a pegar para ver dónde podrían estar en contacto entre sí las diferentes secciones de ADN. Esta técnica puede revelar cómo los cromosomas se entrelazan entre sí.

  • 00:10:00 En esta sección, el orador explica cómo cortar y ligar diferentes fragmentos de ADN se puede usar para crear moléculas quiméricas que revelan dónde se unen y mapean porciones de ADN en el genoma. Mediante la secuenciación y el análisis de estas regiones quiméricas, los investigadores pueden obtener información sobre el empaquetamiento tridimensional del genoma y cómo las diferentes regiones interactúan entre sí. El ponente analiza varias técnicas como 3C, 4C, 5C y ChIA-PET que permiten el análisis de interacciones entre regiones genómicas y el uso de métodos basados en anticuerpos para estudiar selectivamente regiones unidas por reguladores específicos.

  • 00:15:00 En esta sección, el orador explica cómo funciona la tecnología Hi-C y cómo proporciona información sobre la forma en que se organiza el genoma. La tecnología Hi-C implica agregar marcas de biotinilación a las regiones del genoma y luego bajar esas marcas para secuenciarlas, lo que permite a los científicos determinar cómo interactúan entre sí dos regiones del genoma. Las imágenes resultantes muestran información en bucle y revelan que las regiones cercanas a la diagonal interactúan más. La tecnología Hi-C también identifica dominios asociados topológicamente (TAD), que interactúan más entre sí que con el exterior del dominio, y patrones jerárquicos de interacción dentro de ellos. Además, la tecnología muestra un patrón de tablero de ajedrez donde las regiones tienden a interactuar más con regiones del mismo tipo, lo que permite a los científicos visualizar la compactación y organización del genoma.

  • 00:20:00 En esta sección, el disertante analiza la territorialidad de los diferentes cromosomas dentro del núcleo y el patrón de compartimiento a versus b en el genoma, lo que sugiere que una parte del genoma está inactiva y más cerca de la periferia mientras que la parte activa está más cerca del centro. El orador también menciona dominios asociados topológicamente, que son grupos de regiones que interactúan fuertemente dentro de ellos, pero no a través de ellos. El modelo que prevalece para los picos de las esquinas en estos dominios es que se crean mediante un proceso de extrusión de bucles, que involucra sitios de unión para el regulador CTFC y la cohesina empujando un bucle de ADN.

  • 00:25:00 En esta sección, el video explica el modelo de extrusión en bucle de la interpretación de cromatina de alto nivel y el plegamiento tridimensional de la cromatina, lo que implica que los sitios de unión se acerquen y empujen el ADN a través del crecimiento efectivo de un bucle. Luego, el video continúa discutiendo el análisis computacional de motivos regulatorios, utilizando enfoques tradicionales antes del aprendizaje profundo, y cómo la misma metodología de aprendizaje profundo se puede usar para el análisis de imágenes y la genómica regulatoria con la codificación en caliente del ADN. Esta metodología implica refinar un logotipo de motivo mediante la iteración entre el reconocimiento de un patrón de secuencia común y el descubrimiento de instancias de ese motivo.

  • 00:30:00 En esta sección, el orador explica cómo se utilizan los filtros convolucionales en el aprendizaje representacional en la arquitectura de aprendizaje profundo. La secuencia de ADN se transforma en una representación de codificación one-hot con cuatro canales de entrada diferentes para cada letra. Los filtros convolucionales se aplican en cada posición de la secuencia de ADN para detectar diferentes características o motivos. Estos motivos luego se aprenden y se pueden aplicar para realizar una tarea específica, como determinar si un factor de transcripción es binario o no. El ponente destaca que el marco de aprendizaje profundo puede aprender todos estos filtros convolucionales y variar el número de capas, tareas de predicción, relaciones de entrada-salida, entre otros. En última instancia, la arquitectura puede extraer propiedades, filtros y motivos comunes de la secuencia de ADN y utilizarlos para aprender una representación de la secuencia, lo que permite llevar a cabo diversas tareas de predicción.

  • 00:35:00 En esta sección, el ponente ofrece una introducción al uso del aprendizaje automático en secuencias de ácidos nucleicos en biología. Discute las deficiencias de los usos exitosos anteriores del aprendizaje automático, como los núcleos de cadenas, y cómo no pudieron tener en cuenta el posicionamiento espacial de los k-mers o cualquier relación entre ellos. Luego, el orador sugiere que los métodos de aprendizaje profundo podrían superar estas limitaciones y permitir mejores representaciones de secuencias de ADN para el aprendizaje automático.

  • 00:40:00 En esta sección del video, el orador explica el proceso de usar filtros de convolución en el aprendizaje profundo para la genómica regulatoria, que es similar al proceso que se usa en el análisis de imágenes. La primera capa de los filtros de convolución reconoce las matrices de peso de posición que se escanean a lo largo de la secuencia, creando una representación numérica, y luego se aplica una operación de normalización por lotes, seguida de una función no lineal que establece los valores negativos en cero. A continuación, la operación de agrupación máxima se utiliza para tomar el valor máximo de las posiciones adyacentes para cada canal de filtro. Luego, las capas convolucionales se aplican varias veces al modelo, con operaciones de agrupación en el medio, para aprender las relaciones entre los factores de transcripción y los sitios de unión.

  • 00:45:00 En esta sección, el orador analiza cómo hacer predicciones en el aprendizaje profundo para la genómica regulatoria. Colapsan el objeto a lo largo del eje de longitud y ejecutan una capa completamente conectada para hacer predicciones. Luego, el orador brinda un ejemplo de hipersensibilidad del ADN y cómo hay muchos sitios a los que se puede acceder a través de los tipos de células, pero también muchos picos específicos de tipos de células que deben aprenderse. Los conjuntos de entrenamiento, validación y prueba constan de dos millones de sitios, que se dividen en 164 llamadas binarias para determinar si hay una señal significativa de este ensayo de hipersensibilidad del ADN. El orador analiza los beneficios del aprendizaje multitarea, donde todas las circunvoluciones y las capas totalmente conectadas se comparten entre todas las tareas, excepto la transformación lineal final. Explican que esta representación conjunta da mejores resultados que entrenar modelos separados para cada tarea.

  • 00:50:00 En esta sección, los presentadores analizan las tareas involucradas en su modelo de aprendizaje profundo para la genómica reguladora, que incluye diferentes tipos de células y ensayos como el chip-seq del factor de transcripción y el chip-seq de modificación de histonas. Explican que el modelo utiliza redes neuronales convolucionales que son más flexibles que las SVM k-mer y pueden representar más cosas. Para comprender lo que hace el modelo, analizan las matrices de peso de posición obtenidas de los filtros de convolución y las comparan con la base de datos cisBP de sitios de unión de factores de transcripción. Encuentran que los filtros reconocen en gran medida secuencias similares a los motivos de la base de datos y señalan que el uso de múltiples filtros para factores de transcripción importantes como CTCF es crucial para predecir la accesibilidad.

  • 00:55:00 En esta sección, el orador analiza el potencial de usar capas adicionales en una red de aprendizaje profundo para reconocer y combinar múltiples representaciones de bloques de construcción de motivos de factores de transcripción, como CTCF. Esto podría permitir un reconocimiento más eficiente de motivos complejos, aunque también podría dificultar la localización exacta y la contribución de cada filtro individual. El orador también menciona varios análisis que realizaron para obtener información sobre el contenido de la información y la influencia de diferentes filtros en el modelo, lo que podría ayudar a interpretar mejor los resultados de un enfoque de aprendizaje profundo para la genómica regulatoria.

  • 01:00:00 En esta sección del video, el orador analiza el uso de un motivo conocido para hacer predicciones y estudiar los sitios de unión del factor de transcripción al mutar cada nucleótido en la secuencia. Luego, el orador pasa a discutir un nuevo problema de predicción de la transcripción y la expresión génica mediante el cálculo de una función de todos los elementos en una región larga de ADN. La solución implica el uso de estructuras de convolución y traer una gran región de secuencia, alrededor de 100,000 nucleótidos para el modelo, y luego hacer una combinación máxima para obtener la secuencia a una resolución de aproximadamente 128 pares de bases. El desafío es cómo compartir información a través del genoma, y se pueden usar diferentes módulos para esto. Se planteó la hipótesis de que las redes neuronales recurrentes eran la mejor herramienta para el trabajo.

  • 01:05:00 En esta sección, el orador habla sobre una herramienta llamada convolución dilatada que usaron en lugar de una red neuronal recurrente para evitar el problema del entrenamiento lento en secuencias largas. La convolución dilatada implica insertar espacios en la convolución y expandirla, lo que permite que el campo receptivo crezca exponencialmente, lo que lleva a un método muy eficiente en parámetros para cubrir una imagen. Luego, el orador analiza cómo usaron las circunvoluciones dilatadas para hacer predicciones en un marco multitarea para datos de cromatina y expresión génica. También mencionan una técnica adicional llamada conexiones residuales o conexiones de salto que pueden ser útiles para entrenar redes neuronales profundas.

  • 01:10:00 En esta sección, el orador analiza el uso de redes residuales para facilitar que cada capa aprenda información nueva sin tener que volver a aprender todo lo anterior. Esto es especialmente útil para circunvoluciones dilatadas, que se ven en diferentes posiciones más alejadas. Al transmitir directamente lo que ya se ha aprendido con la conexión residual, pueden agregar nueva información al vector de cada posición y normalizarlo o agregarle una convolución. El número de conexiones residuales depende de la longitud de la secuencia con la que se trabaja, ya que deberían poder mirar lo suficientemente lejos sin salirse de los límites de la secuencia.

  • 01:15:00 En esta sección del video, el orador analiza el uso de 5 a 10 capas de convolución dilatada para una secuencia de entrada de 100 000, pero señala que esto puede cambiar según la escala de la secuencia o el tamaño del contenedor. La entrada en este caso es la señal continua de varios conjuntos de datos, y el orador señala que no se puede binarizar fácilmente como la expresión génica. El orador indica que una función más pérdida funciona mejor para los datos y señala que la calidad del modelo se ve afectada por la calidad de los datos, que puede variar considerablemente. El orador menciona brevemente el uso del modelo para hacer predicciones de mutaciones en los SNP asociados a enfermedades y la importancia de conectar la investigación en biología computacional con las asociaciones de enfermedades. Finalmente, el orador cubre brevemente la predicción de contactos 3D utilizando datos y modelos IC.

  • 01:20:00 En esta sección, el orador explica cómo usan los datos de c alta para hacer predicciones. Los datos son bidimensionales, con nucleótidos en el eje x y el eje y, que representan la frecuencia de contacto entre esa parte del genoma y otro contenedor en el genoma. Utilizando el error cuadrático medio y el aprendizaje multitarea, el modelo puede predecir los datos. Sin embargo, con la entrada de un millón de nucleótidos, las limitaciones de memoria de la GPU se convierten en un problema. La solución es usar el promedio de la posición i y la posición j, lo que da como resultado una matriz 2D que las herramientas de aprendizaje profundo pueden analizar. Usando convoluciones 2D, convoluciones dilatadas y resinmetrizando la matriz después de cada capa, el modelo puede hacer predicciones con ctcf como el principal factor de aprendizaje.

  • 01:25:00 En esta sección, David Kelley analiza cómo se puede usar el aprendizaje profundo en la genómica reguladora para analizar entradas básicas como la secuencia de ADN y predecir la unión del factor de transcripción, usando CTCF como ejemplo. Con suficientes datos y las transformaciones correctas, las arquitecturas de redes neuronales pueden aprender con éxito y hacer predicciones basadas en datos genómicos. Si bien los datos sintéticos son actualmente el enfoque principal, esta presentación ofrece una descripción general de las formas en que se puede aplicar el aprendizaje profundo en biología y genómica.
Razón de la queja: