Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
MIT Deep Learning in den Biowissenschaften – Frühjahr 2021
MIT Deep Learning in den Biowissenschaften – Frühjahr 2021
Der Kurs "Deep Learning in Life Sciences" wendet maschinelles Lernen auf verschiedene Aufgaben der Biowissenschaften an und wird von einem Forscher für maschinelles Lernen und Genomik mit einem Lehrkörper aus Doktoranden und Studenten des MIT unterrichtet. Der Kurs behandelt die Grundlagen des maschinellen Lernens, genregulatorische Schaltkreise, Krankheitsvariationen, Proteininteraktionen und -faltung sowie Bildgebung mit TensorFlow über Python in einer Google Cloud-Plattform. Der Kurs wird aus vier Problemstellungen, einem Quiz und einem Teamprojekt bestehen, wobei Mentoring-Sitzungen eingestreut sind, um den Studenten bei der Entwicklung ihrer eigenen Projekte zu helfen. Der Ausbilder betont die Bedeutung des Aufbaus eines Teams mit komplementären Fähigkeiten und Interessen und bietet während des gesamten Semesters verschiedene Meilensteine und Ergebnisse. Der Kurs zielt darauf ab, praktische Erfahrungen zu vermitteln, einschließlich des Verfassens von Stipendien- und Stipendienanträgen, Peer-Review, Jahresberichte und die Entwicklung von Kommunikations- und Kollaborationsfähigkeiten. Der Referent diskutiert die Unterschiede zwischen traditioneller KI und Deep Learning, das eine interne Darstellung einer Szene basierend auf beobachtbaren Stimuli erstellt, und betont die Bedeutung von Deep Learning in den Biowissenschaften aufgrund der Konvergenz von Trainingsdaten, Rechenleistung und neuen Algorithmen .
Das Video ist ein Einführungsvortrag zum Thema Deep Learning in den Lebenswissenschaften und erklärt die Bedeutung von maschinellem Lernen und Deep Learning bei der Erforschung der Komplexität der Welt. Der Vortrag konzentriert sich auf das Konzept der Bayes'schen Inferenz und wie es eine entscheidende Rolle beim klassischen und tiefen maschinellen Lernen spielt, sowie auf die Unterschiede zwischen generativen und diskriminativen Lernansätzen. Der Vortrag beleuchtet auch die Leistungsfähigkeit von Support-Vektor-Maschinen, Klassifikationsleistung und linearer Algebra zum Verständnis von Netzwerken über biologische Systeme hinweg. Der Referent merkt an, dass der Kurs verschiedene Themen des Deep Learning abdecken wird, darunter Regularisierung, Vermeidung von Overfitting und Trainingssets. Die Vorlesung schließt mit Fragen zur Interpretierbarkeit von künstlichen Neuronen und tiefen Netzwerken für zukünftige Vorlesungen.
Machine Learning Foundations - Vorlesung 02 (Frühjahr 2021)
Machine Learning Foundations - Deep Learning in Life Sciences Vorlesung 02 (Frühjahr 2021)
Diese Vorlesung behandelt die Grundlagen des maschinellen Lernens und stellt Konzepte wie Trainings- und Testsets, Modelltypen wie diskriminativ und generativ, die Bewertung von Verlustfunktionen, Regularisierung und Überanpassung sowie neuronale Netze vor. Anschließend erläutert der Dozent die Bedeutung von Hyperparametern, die Bewertung der Genauigkeit in den Lebenswissenschaften, Korrelationstests und Wahrscheinlichkeitsrechnungen für Modelltests. Abschließend werden die Grundlagen tiefer neuronaler Netze und die Struktur eines Neurons diskutiert, wobei die Rolle der Nichtlinearität beim Lernen komplexer Funktionen hervorgehoben wird.
Im zweiten Abschnitt der Vorlesung wird das Konzept der Aktivierungsfunktionen im Deep Learning erklärt, sowie der Lernprozess der Anpassung von Gewichtungen an die Ausgabefunktion unter Verwendung partieller Ableitungen bei der Optimierung von Gewichtsaktualisierungen zur Minimierung von Fehlern, was die Grundlage des Gradienten darstellt -basiertes Lernen. Das Konzept der Backpropagation wird als Verfahren zum Propagieren von Ableitungen durch ein neuronales Netzwerk eingeführt, um Gewichte anzupassen. Die verschiedenen Methoden zur Optimierung von Gewichten in mehreren Schichten von Deep-Learning-Modellen werden diskutiert, einschließlich des stochastischen Gradientenabstiegs und des Konzepts der Modellkapazität und der VC-Dimension. Die Effektivität der Kapazität eines Modells in einem Diagramm und die Verzerrung und Varianz werden ebenfalls diskutiert, zusammen mit verschiedenen Regularisierungstechniken wie frühem Stoppen und Gewichtsverlust. Es wird betont, wie wichtig es ist, das richtige Gleichgewicht zwischen Komplexität zu finden, und die Schüler werden ermutigt, sich ihren Klassenkameraden positiv vorzustellen.
CNNs Convolutional Neural Networks - Vorlesung 03 (Frühjahr 2021)
CNNs Convolutional Neural Networks - Deep Learning in Life Sciences - Vorlesung 03 (Frühjahr 2021)
Dieser Videovortrag behandelt das Thema Convolutional Neural Networks (CNNs) im Deep Learning für Life Sciences. Der Referent erörtert die Prinzipien des visuellen Kortex und ihre Beziehung zu CNNs, einschließlich der Bausteine des menschlichen und tierischen visuellen Systems, wie die grundlegenden Bausteine des Summierens und Wiegens und die Bias-Aktivierungsschwelle eines Neurons. Sie erklären, dass CNNs spezialisierte Neuronen für Erkennungsoperationen auf niedriger Ebene und Schichten versteckter Einheiten für das Lernen abstrakter Konzepte verwenden. Die Vorlesung behandelt auch die Rolle von Faltungs- und Pooling-Layern, die Verwendung mehrerer Filter zum Extrahieren mehrerer Merkmale und das Konzept des Transfer Learning. Schließlich werden auch Nichtlinearitäten und die Verwendung von Padding zur Adressierung von Randfällen bei der Faltung diskutiert. Insgesamt beleuchtet der Vortrag die Leistungsfähigkeit und das Potenzial von CNNs in einer Vielzahl von Life-Science-Anwendungen.
Der zweite Teil der Vorlesung behandelt verschiedene Konzepte im Zusammenhang mit Convolutional Neural Networks (CNNs). Im Vortrag spricht der Referent über die Bedeutung der Beibehaltung der Eingabegröße in CNNs, Datenaugmentation als Mittel zur Erzielung von Invarianz gegenüber Transformationen sowie verschiedene CNN-Architekturen und deren Anwendungen. Der Vortrag behandelt auch Herausforderungen im Zusammenhang mit dem Lernen in tiefen CNNs, Hyperparameter und deren Auswirkungen auf die Gesamtleistung sowie Ansätze zum Hyperparameter-Tuning. Der Redner betont, wie wichtig es ist, die grundlegenden Prinzipien hinter CNNs zu verstehen, und hebt ihre Vielseitigkeit als Technik hervor, die in mehreren Umgebungen anwendbar ist.
Recurrent Neural Networks RNNs, Graph Neural Networks GNNs, Long Short Term Memory LSTMs - Vorlesung 04 (Frühjahr 2021)
Recurrent Neural Networks RNNs, Graph Neural Networks GNNs, Long Short Term Memory LSTMs
Dieses Video behandelt eine Reihe von Themen, beginnend mit rekurrenten neuronalen Netzen (RNNs) und ihrer Fähigkeit, den zeitlichen Kontext zu codieren, was für das Sequenzlernen von entscheidender Bedeutung ist. Der Referent stellt das Konzept der Hidden-Markov-Modelle und ihre Grenzen vor, was zur Diskussion von Long-Short-Term-Memory-Modulen (LSTM) als leistungsfähigem Ansatz für den Umgang mit langen Sequenzen führt. Das Video behandelt auch das Transformer-Modul, das zeitliche Beziehungen lernt, ohne RNNs aufzurollen oder zu verwenden. Graphische neuronale Netze werden vorgestellt und ihre möglichen Anwendungen bei der Lösung klassischer Netzwerkprobleme und in der Computerbiologie. Der Vortrag schließt mit einer Diskussion über Forschungsgrenzen in neuronalen Graphennetzen, wie z. B. ihre Anwendung in degenerativen Graphenmodellen und latenter Grapheninferenz.
In diesem zweiten Teil des Videos werden Recurrent Neural Networks (RNNs), Graph Neural Networks (GNNs) und Long Short Term Memory (LSTM)-Module behandelt. Es erklärt, wie traditionelle neuronale Feedforward-Netze beim Umgang mit graphbasierten Daten Einschränkungen haben, GNNs jedoch mit einer Vielzahl von Invarianzen umgehen und Informationen über den Graphen verbreiten können. Die Referenten diskutieren auch Graph Convolutional Networks (GCNs) und ihre Vorteile und Herausforderungen. Darüber hinaus beschreibt das Video die Bedeutung von Aufmerksamkeitsfunktionen, um GNNs leistungsfähiger und flexibler zu machen.
Interpretierbares Deep Learning - Deep Learning in Life Sciences - Vorlesung 05 (Frühjahr 2021)
Interpretierbares Deep Learning - Deep Learning in Life Sciences - Vorlesung 05 (Frühjahr 2021)
Dieses Video diskutiert die Bedeutung der Interpretierbarkeit in Deep-Learning-Modellen, insbesondere im Bereich der Biowissenschaften, wo Entscheidungen schwerwiegende Folgen haben können. Der Referent erläutert zwei Arten der Interpretierbarkeit: sie von Anfang an in das Design des Modells einzubauen und Post-hoc-Interpretierbarkeitsmethoden für bereits gebaute Modelle zu entwickeln. Anschließend untersuchen sie verschiedene Techniken zur Interpretation von Modellen, einschließlich Gewichtsvisualisierung, Erstellung von Ersatzmodellen und Aktivierungsmaximierung, und diskutieren die Bedeutung des Verständnisses der internen Repräsentationen des Modells. Der Dozent erläutert auch einige Methoden zur Interpretation individueller Entscheidungen, wie z. B. beispielbasierte und Attributionsmethoden. Darüber hinaus erörtert der Referent die Herausforderung bei der Interpretation komplexer Konzepte und die Grenzen der Interpretation von neuronalen Netzwerkmodellen sowie die Erforschung von Hypothesen im Zusammenhang mit der Diskontinuität von Gradienten in neuronalen Deep-Learning-Netzwerken.
Im zweiten Teil des Vortrags ging der Referent auf die Herausforderungen diskontinuierlicher Gradienten und gesättigter Funktionen in Deep-Learning-Modellen im Bereich Life Sciences ein. Sie schlugen Methoden wie die Mittelung kleiner Eingabestörungen über mehrere Stichproben vor, um einen glatteren Gradienten zu erhalten, die Verwendung von Zufallsrauschen zur Hervorhebung der hervorstechenden Merkmale bei der Bildklassifizierung und Backpropagation-Techniken wie deconvolutional neuronale Netze und geführte Backpropagation zur Interpretation von Genregulationsmodellen. Der Referent erörterte auch die quantitative Bewertung von Attributionsmethoden, einschließlich des Pixel-Flipping-Verfahrens und des Remove-and-Replace-Score-Ansatzes. Schließlich betonten sie die Notwendigkeit der Interpretierbarkeit in Deep-Learning-Modellen und die verschiedenen Techniken, um dies zu erreichen.
Generative Models, Adversarial Networks GANs, Variational Autoencoders VAEs, Representation Learning - Vorlesung 06 (Frühjahr 2021)
Generative Models, Adversarial Networks GANs, Variational Autoencoders VAEs, Representation Learning - Vorlesung 06 (Frühjahr 2021)
Dieses Video diskutiert das Konzept des Repräsentationslernens beim maschinellen Lernen und betont dessen Bedeutung bei Klassifizierungsaufgaben und Innovationspotenzial bei der Entwicklung neuer Architekturen. Durch Techniken wie Autoencoder und Variations-Autoencoder (VAEs) werden selbstüberwachte Aufgaben und Vorwandaufgaben eingeführt, um Repräsentationen zu lernen, ohne dass beschriftete Daten erforderlich sind. Der Referent diskutiert auch generative Modelle wie VAEs und Generative Adversarial Networks (GANs), die durch Manipulation der latenten Raumrepräsentation neue Daten generieren können. Die Vor- und Nachteile jeder Methode werden diskutiert und ihre Wirksamkeit, aber auch ihre Grenzen hervorgehoben. Insgesamt bietet das Video einen umfassenden Überblick über verschiedene Ansätze zum Repräsentationslernen und zu generativen Modellen im maschinellen Lernen.
Das Video untersucht die Konzepte von Generative Adversarial Networks (GANs), Variational Autoencoders (VAEs) und Repräsentationslernen in generativen Modellen. Bei GANs haben der Generator und der Diskriminator entgegengesetzte Ziele, und der Trainingsprozess ist für gefälschte Proben langsam, aber Verbesserungen der Auflösung und der Objektivfunktion können zu realistisch aussehenden Bildern führen. Der Referent demonstriert, wie GANs architektonisch plausible Räume generieren und einen Raum in einen anderen übertragen können. VAEs modellieren explizit Dichtefunktionen und erfassen die Vielfalt realer Bilder durch aussagekräftige latente Raumparameter. Der Referent fördert Kreativität und Experimente mit offenen Architekturen und Modellen, und die Anwendung generativer Modelle und Repräsentationslernen in verschiedenen Bereichen ist ein schnell wachsendes Feld mit unbegrenzten Möglichkeiten.
Regulatorische Genomik - Deep Learning in Life Sciences - Vorlesung 07 (Frühjahr 2021)
Regulatorische Genomik - Deep Learning in Life Sciences - Vorlesung 07 (Frühjahr 2021)
Die Vorlesung behandelt das Gebiet der regulatorischen Genomik, einschließlich der biologischen Grundlagen der Genregulation, klassischer Methoden der regulatorischen Genomik, der Motiventdeckung mit Hilfe von Convolutional Neural Networks und der Verwendung von Modellen des maschinellen Lernens, um zu verstehen, wie Sequenzen Genregulationseigenschaften kodieren. Der Referent erklärt die Bedeutung regulatorischer Motive in der Genregulation und wie Störungen dieser Motive zu Krankheiten führen können. Sie führen ein neues Modell ein, das ein konvolutionelles neuronales Netzwerk verwendet, das Sequenzierungs-Reads auf das Genom abbildet und zählt, wie viele Fünf-Prime-Enden jedes Basenpaar auf den beiden Strängen hat. Das Modell kann für mehrere Auslesungen verschiedener Proteine verwendet werden und kann separat oder gleichzeitig mit einem Multitask-Modell angepasst werden. Der Referent zeigt auch, wie das Modell jede Art von Assay analysieren kann, einschließlich genomischer Daten, indem es Interpretationsrahmen verwendet, die biologische Geschichten darüber aufdecken, wie die Syntax die TF-Kooperativität beeinflusst. Die Modelle können Vorhersagen treffen, die durch hochauflösende CRISPR-Experimente validiert werden.
Das Video erläutert, wie Deep Learning die Qualität von ATAC-seq-Daten mit geringer Abdeckung verbessern kann, indem Signalspitzen verstärkt und entrauscht werden. AttackWorks ist ein Deep-Learning-Modell, das Abdeckungsdaten aufnimmt und eine verbleibende neuronale Netzwerkarchitektur verwendet, um die Signalgenauigkeit zu verbessern und zugängliche Chromatinstellen zu identifizieren. Der Referent demonstriert, wie AttackWorks verwendet werden kann, um Daten mit geringer Qualität zu verarbeiten und die Auflösung der Untersuchung der Chromatin-Zugänglichkeit von Einzelzellen zu erhöhen. Sie beschreiben auch ein spezielles Experiment mit hämatopoetischen Stammzellen, bei dem ATAC-seq verwendet wurde, um spezifische regulatorische Elemente zu identifizieren, die am Lineage Priming beteiligt sind. Der Referent lädt Studierende ein, Praktika oder Kooperationen anzustreben.
aussehen. Sobald sie dieses trainierte Modell haben, können sie es auf kleine Populationen von sehr wenigen Zellen anwenden, um vorherzusagen, wie die Daten ausgesehen hätten, wenn sie mehr Zellen zum Sequenzieren gehabt hätten. Dieser Ansatz erhöht die Auflösung, mit der sie die Chromatin-Zugänglichkeit von Einzelzellen untersuchen können, erheblich, und sie zeigen, dass die Modelle über Experimente, Zelltypen und sogar Arten hinweg übertragbar sind.
Deep Learning for Regulatory Genomics - Regulator Binding, Transcription Factors TFs - Vorlesung 08 (Frühjahr 2021)
Deep Learning for Regulatory Genomics - Regulator Binding, Transcription Factors TFs - Vorlesung 08 (Frühjahr 2021)
Das Video diskutiert die Verwendung von Deep Learning für die regulatorische Genomik und konzentriert sich darauf, wie die DNA-Sequenz verschiedene Motive aufdecken kann, die in Enhancer- und Promotorregionen vorhanden sind, sowie deren 3D-Looping. Das Video erklärt, wie die Chromosomenbestätigungs-Capture-Technologie (3C) die chromosomale Organisation untersuchen kann und die Hi-C-Technologie topologisch assoziierte Domänen (TADs), die miteinander interagieren, und das Kompartimentmuster im Genom identifizieren kann. Faltungsfilter werden an jeder Position der DNA-Sequenz angewendet, um unterschiedliche Merkmale oder Motive zu erkennen, und das Deep-Learning-Framework kann gemeinsame Eigenschaften, Filter und Motive der DNA-Sequenz lernen, wodurch verschiedene Vorhersageaufgaben durchgeführt werden können. Das Video erwähnt auch, wie vorteilhaft Multitasking-Lernen ist, und dass die Verwendung zusätzlicher Schichten im Deep-Learning-Netzwerk zum Erkennen und Kombinieren mehrerer Bausteindarstellungen von Transkriptionsfaktormotiven eine effizientere Erkennung komplexer Motive ermöglichen könnte.
Der Sprecher in diesem Video erörtert die Verwendung von Deep Learning für die regulatorische Genomik mit Schwerpunkt auf der Bindung von Transkriptionsfaktoren und der Vorhersage der Genexpression. Sie untersuchen die Verwendung von Faltungsstrukturen und erweiterten Faltungen, um große DNA-Regionen einzubringen und Vorhersagen in einem Multi-Task-Framework für Chromatindaten und Genexpression zu treffen. Der Referent behandelt auch die Verwendung von Restverbindungen zum Trainieren tiefer neuronaler Netze und erklärt, wie das Modell 3D-Kontakte anhand von IC-Daten und -Modellen vorhersagen kann. Insgesamt kann Deep Learning ein leistungsstarkes Werkzeug sein, um Genomdaten zu analysieren und Vorhersagen auf der Grundlage von DNA-Sequenzen mit genügend Daten und den richtigen Transformationen zu treffen.
Genexpressionsvorhersage - Vorlesung 09 - Deep Learning in Life Sciences (Frühjahr 2021)
Genexpressionsvorhersage - Vorlesung 09 - Deep Learning in Life Sciences (Frühjahr 2021)
Das Video diskutiert die Verwendung von Deep Learning bei der Vorhersage der Genexpression und die Herausforderungen bei der Analyse biologischer Datensätze, einschließlich hoher Dimensionalität und Rauschen. Die Vorlesung behandelt Methoden wie Clusteranalyse, Low-Rank-Approximationen von Matrizen und Compressive Sensing. Der Referent spricht auch über die Verwendung von Deep Learning zur Genexpressionsvorhersage und Chromatin sowie über schwach überwachtes Lernen zur Vorhersage von Enhancer-Aktivitätsstellen. Der Vortrag behandelt mehrere Tools, die hauptsächlich mit Deep-Learning-Methoden entwickelt wurden, darunter danq, djgx, factory mat und sc fin. Der Referent spricht auch über die Verwendung generativer Modelle zur Untersuchung von Genomdatensätzen und stellt die Idee der ungefähren Inferenzmethodik vor, insbesondere die populäre Variationsinferenz.
Im zweiten Teil des Vortrags diskutiert der Referent die Anwendung von Deep Learning in den Lebenswissenschaften, insbesondere in der Genexpressionsvorhersage und Genominterpretation. Das erste Thema konzentriert sich auf die Anwendung von Variations-Autoencoder-Modellen auf die RNA-Expressionsanalyse für Asthma-Datensätze. Der Referent schlägt einen Rahmen vor, um experimentelle Artefakte mithilfe eines bedingten generativen Modells zu entfernen. Das zweite Thema behandelt die Investition von Illumina in Deep-Learning-Netzwerke zur Identifizierung der Sequenz-zu-Funktion-Modelle für die Genominterpretation, insbesondere für das Spleißen. Das Unternehmen hat SpliceAI entwickelt, ein Deep Convolutional Neural Network, das vorhersagt, ob ein Nukleotid ein Splice-Donor, -Akzeptor oder beides ist. Das dritte Thema befasst sich mit der Forschung des Referenten zur Vorhersage, ob bestimmte Mutationen eine kryptische Spleißfunktion haben werden, die zu Frameshifts und Krankheiten führen kann. Der Referent lädt auch zu Fragen und Bewerbungen für Forschungsstellen, Praktika und Postdocs ein.
Einzelzellgenomik - Vorlesung 10
Single Cell Genomics - Vorlesung 10 - Deep Learning in Life Sciences (Frühjahr 2021)
In diesem Vortrag zur Einzelzellgenomik geht der Referent auf verschiedene Methoden und Technologien zur Profilierung einzelner Zellen ein, darunter Zellsortierung und Mikrofluidik. Der Fokus liegt auf drei spezifischen Einzelzell-Sequenzierungstechnologien – Smart-seq, drop-seq und gepoolte Ansätze. Der Referent behandelt auch den Prozess der Analyse von Einzelzell-Transkriptomen, einschließlich Vorverarbeitung, Visualisierung, Clustering und Annotation, sowie die Verwendung der Autoencoder-Architektur beim Community-Clustering. Deep-Learning-Methoden werden zur Domänenanpassung und zur stimulierten Rekonstruktion von Zelltypen eingesetzt. Der Vortrag diskutiert auch die Herausforderungen bei der Analyse von Einzelzellgenomdaten und schlägt die Verwendung eines generativen Modells vor, um diese Probleme auf skalierbare und konsistente Weise anzugehen.
Der zweite Teil des Videos behandelt verschiedene Themen rund um Einzelzellgenomik und Deep Learning. Zu den diskutierten Themen gehören Variationsinferenz, ein generativer Prozess für Einzelzell-RNA-Sequenzierungsdaten, das SCVI-Modell zum Mischen von Zelltyp-Datensätzen, CanVAE zum Verbreiten von Labels und die Implementierung verschiedener Deep-Learning-Algorithmen auf einer einzigen Codebasis, den so genannten CVI-Tools. Die Referenten gehen auch auf Herausforderungen bei der Verwendung von Posterior-Wahrscheinlichkeiten zur Berechnung von Maßen der Genexpression ein und stellen Methoden zur genauen Berechnung von Posterior-Erwartungen und zur Kontrolle der vollständigen Entdeckungsraten vor.