
Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
Vorlesung 2 - Deep Learning Intuition
Stanford CS230: Tiefes Lernen | Herbst 2018 | Vorlesung 2 - Deep Learning Intuition
Der erste Teil der Vorlesung konzentriert sich auf verschiedene Anwendungen von Deep Learning, darunter Bildklassifizierung, Gesichtserkennung und Bildstilübertragung. Der Kursleiter erklärt die Bedeutung verschiedener Faktoren wie Datensatzgröße, Bildauflösung und Verlustfunktion bei der Entwicklung eines Deep-Learning-Modells. Das Konzept der Codierung von Bildern unter Verwendung von tiefen Netzwerken zur Erstellung nützlicher Darstellungen wird ebenfalls diskutiert, wobei der Schwerpunkt auf der Triplettverlustfunktion liegt, die bei der Gesichtserkennung verwendet wird. Darüber hinaus erklärt der Dozent das Clustering mit dem K-Means-Algorithmus zur Bildklassifizierung und zum Extrahieren von Stil und Inhalt aus Bildern. Insgesamt führt der Abschnitt die Studierenden in die verschiedenen Techniken und Überlegungen ein, die bei der Entwicklung erfolgreicher Deep-Learning-Modelle eine Rolle spielen.
Der zweite Teil des Videos behandelt eine Vielzahl von Deep-Learning-Themen, wie z. B. Bilderzeugung, Spracherkennung und Objekterkennung. Der Referent betont die Bedeutung der Beratung durch Experten bei Problemen und die kritischen Elemente eines erfolgreichen Deep-Learning-Projekts: eine strategische Datenerfassungspipeline sowie Architektursuche und Hyperparameter-Tuning. Das Video erörtert auch verschiedene Verlustfunktionen, die beim Deep Learning verwendet werden, einschließlich der Verlustfunktion zur Objekterkennung, die eine Quadratwurzel enthält, um Fehler bei kleineren Kästchen stärker zu bestrafen als bei größeren Kästchen. Das Video endet mit einer Zusammenfassung der bevorstehenden Module und Aufgaben, einschließlich obligatorischer TA-Projekt-Mentoring-Sitzungen und TA-Abschnitten am Freitag, die sich auf die Übertragung neuronaler Stile und das Ausfüllen eines AWS-Formulars für potenzielle GPU-Gutschriften konzentrieren.
Vorlesung 3 - Vollständige Deep-Learning-Projekte
Stanford CS230: Tiefes Lernen | Herbst 2018 | Vorlesung 3 - Vollständige Deep-Learning-ProjekteIn dieser Vorlesung über Full-Cycle-Deep-Learning-Projekte betont der Dozent, wie wichtig es ist, alle Aspekte des Aufbaus einer erfolgreichen Anwendung für maschinelles Lernen zu berücksichtigen, einschließlich Problemauswahl, Datenerfassung, Modelldesign, Tests, Bereitstellung und Wartung. Am Beispiel des Baus eines sprachaktivierten Geräts erörtert der Kursleiter die Schlüsselkomponenten von Deep-Learning-Projekten und ermutigt die Schüler, sich auf realisierbare Projekte mit potenziellen positiven Auswirkungen und einzigartigen Beiträgen zu ihren jeweiligen Bereichen zu konzentrieren. Der Kursleiter betont auch, wie wichtig es ist, Daten schnell zu sammeln, sich während des gesamten Prozesses gute Notizen zu machen und während der Entwicklung zu iterieren, während er auch spezifische Ansätze zur Sprachaktivierung und Sprachaktivitätserkennung erörtert.
Der zweite Teil der Vorlesung konzentriert sich auf die Bedeutung der Überwachung und Wartung in Machine-Learning-Projekten, insbesondere auf die Notwendigkeit, Modelle kontinuierlich zu überwachen und zu aktualisieren, um sicherzustellen, dass sie in der realen Welt gut funktionieren. Der Dozent geht auf das Problem der Datenänderung ein, die dazu führen kann, dass maschinelle Lernmodelle an Genauigkeit verlieren, und betont die Notwendigkeit einer ständigen Überwachung, Datenerfassung und Modellneugestaltung, um sicherzustellen, dass die Modelle weiterhin effektiv funktionieren. Der Vortrag erörtert auch die Auswirkungen der Verwendung eines Nicht-ML-Systems im Vergleich zu einem trainierten neuronalen Netzwerk in einem Sprachaktivitätserkennungssystem und legt nahe, dass handcodierte Regeln im Allgemeinen robuster gegenüber sich ändernden Daten sind. Der Dozent folgert daraus, dass bei der Erhebung von Daten für Umschulungsmodelle unbedingt auf den Datenschutz geachtet und die Zustimmung der Nutzer eingeholt werden muss.
Um dieser Herausforderung zu begegnen, wird ein einfacherer Algorithmus verwendet, um zu erkennen, ob überhaupt jemand spricht, bevor der Audioclip zur Klassifizierung an das größere neuronale Netzwerk weitergeleitet wird. Dieser einfachere Algorithmus wird als Voice Activity Detection (VAD) bezeichnet und ist eine Standardkomponente in vielen Spracherkennungssystemen, einschließlich denen, die in Mobiltelefonen verwendet werden.
Vorlesung 4 - Adversarial Attacks / GANs
Stanford CS230: Tiefes Lernen | Herbst 2018 | Vorlesung 4 - Adversarial Attacks / GANs
Dieser Vortrag stellt das Konzept der gegnerischen Beispiele vor, bei denen es sich um Eingaben handelt, die leicht modifiziert wurden, um ein vortrainiertes neuronales Netzwerk zu täuschen. Der Vortrag erläutert die theoretischen Grundlagen, wie diese Angriffe funktionieren, und diskutiert die böswilligen Anwendungen der Verwendung von gegnerischen Beispielen im Deep Learning. Die Vorlesung stellt auch Generative Adversarial Networks (GANs) als eine Möglichkeit vor, ein Modell zu trainieren, das Bilder erzeugen kann, die wie echt aussehen, und die Vorlesung diskutiert die Kostenfunktion für den Generator in einem GAN-Modell. Die Vorlesung schließt mit der Erläuterung des logarithmischen Graphen der Ausgabe von D anhand eines generierten Beispiels.
Der Vortrag behandelt verschiedene Themen im Zusammenhang mit Generative Adversarial Networks (GANs), darunter Tipps und Tricks zum Training von GANs und deren Anwendungen in der Bild-zu-Bild-Übersetzung und ungepaarten generativen Adversarial Networks unter Verwendung der CycleGAN-Architektur. Die Bewertung von GANs wird ebenfalls diskutiert, wobei Methoden wie Human Annotation, Klassifikationsnetzwerke und Inception Score und Frechet Inception Distance beliebte Methoden zur Überprüfung des Realismus von generierten Bildern sind.
Vorlesung 5 - KI + Gesundheitswesen
Stanford CS230: Tiefes Lernen | Herbst 2018 | Vorlesung 5 - KI + Gesundheitswesen
Die Vorlesung gibt in dieser Vorlesung einen Überblick über KI-Anwendungen im Gesundheitswesen. Er schlüsselt die Arten von Fragen auf, die KI beantworten kann, wie z. B. beschreibend, diagnostisch, prädiktiv und präskriptiv. Anschließend stellt der Autor drei Fallstudien aus seinem Labor vor, die die Anwendung von KI auf verschiedene Gesundheitsprobleme demonstrieren. Ein Beispiel ist die Erkennung schwerer Herzrhythmusstörungen, die Experten möglicherweise falsch diagnostiziert haben, aber von einer Maschine erfasst werden könnten. Ein weiteres Beispiel ist die Verwendung von Convolutional Neural Networks zur Identifizierung von Anomalien bei Knie-MR-Untersuchungen, insbesondere zur Identifizierung der Wahrscheinlichkeit eines Kreuzbandrisses und eines Meniskusrisses. Abschließend diskutiert der Referent Fragen im Zusammenhang mit der Datenverteilung und Datenaugmentation in der KI im Gesundheitswesen.
Der zweite Teil behandelt verschiedene Themen rund um die Implementierung von Deep Learning in Gesundheitsanwendungen. Die Bedeutung der Datenerweiterung wird diskutiert, wie die Lösung eines Unternehmens für Spracherkennungsprobleme in selbstfahrenden Autos zeigt, die dadurch verursacht werden, dass Menschen mit dem virtuellen Assistenten sprechen, während sie rückwärts schauen. Hyperparameter, die beim Transferlernen für Anwendungen im Gesundheitswesen beteiligt sind, wie z. B. die Entscheidung, wie viele Schichten hinzugefügt und welche eingefroren werden sollen, werden ebenfalls erörtert. Der Vortrag fährt dann mit der Bildanalyse fort, wo die Bedeutung des Hinzufügens von Grenzen zu beschrifteten Datensätzen hervorgehoben wird. Es werden die Vorteile und Unterschiede zwischen Objektdetektion und Segmentierung in der medizinischen Bildanalyse diskutiert und das Thema der binären Klassifikation von mit Null oder Eins gekennzeichneten medizinischen Bildern vorgestellt. Der Vortrag schließt mit einer Diskussion über die Bedeutung von Daten im Deep Learning und anstehende Assessments für den Kurs.
Vorlesung 6 - Deep-Learning-Projektstrategie
Stanford CS230: Tiefes Lernen | Herbst 2018 | Vorlesung 6 - Deep-Learning-Projektstrategie
In diesem Video erläutert der Referent, wie wichtig es ist, eine gute Metrik auszuwählen, um den Erfolg eines maschinellen Lernprojekts zu messen. Die gewählte Metrik sollte das vorliegende Problem und das gewünschte Ergebnis widerspiegeln. Der Sprecher liefert Beispiele für Genauigkeit, Präzision, Erinnerung und F1-Punktzahl und erklärt, wann diese jeweils verwendet werden sollten. Sie diskutieren auch den Unterschied zwischen dem Validierungsset und dem Testset und erklären, warum es wichtig ist, beide zu verwenden. Darüber hinaus betont der Referent die Notwendigkeit eines Basismodells als Vergleichspunkt, um die Effektivität des Lernalgorithmus zu messen. Abschließend geht der Referent auf einige Fragen aus dem Publikum zur Wahl des Schwellenwerts für die binäre Klassifizierung und zum Umgang mit Klassenungleichgewichten ein.
Vorlesung 7 - Interpretierbarkeit neuronaler Netze
Stanford CS230: Tiefes Lernen | Herbst 2018 | Vorlesung 7 - Interpretierbarkeit neuronaler NetzeIn dieser Vorlesung stellt der Dozent verschiedene Methoden zur Interpretation und Visualisierung neuronaler Netze vor, wie z. B. Salienzkarten, Okklusionssensitivität und Klassenaktivierungskarten. Die Klassenaktivierungskarten werden verwendet, um Zwischenschichten eines neuronalen Netzwerks zu interpretieren, indem die Ausgabe auf den Eingaberaum zurück abgebildet wird, um zu visualisieren, welche Teile der Eingabe im Entscheidungsprozess am diskriminierendsten waren. Der Professor erörtert auch das Pooling globaler Mittelwerte als eine Möglichkeit, räumliche Informationen in einem neuronalen Faltungsnetz beizubehalten, und die Entfaltung, um die Höhe und Breite von Bildern für Aufgaben wie die Bildsegmentierung zu erhöhen. Darüber hinaus untersucht die Vorlesung die Annahme der Orthogonalität in Faltungsfiltern und wie die Subpixel-Faltung für die Rekonstruktion in Visualisierungsanwendungen verwendet werden kann.
Der Vortrag behandelt verschiedene Methoden zur Interpretation und Visualisierung neuronaler Netze, darunter Subpixel-Faltung, 2D-Dekonvolution, Upsampling, Unpooling und die Verwendung von Tools wie der DeepViz-Toolbox und dem Deep Dream-Algorithmus. Der Referent erklärt, wie die Visualisierung von Filtern in der ersten Schicht eines Netzwerks die Interpretation erleichtern kann, aber je tiefer wir gehen, desto schwerer wird das Netzwerk zu verstehen. Durch die Untersuchung von Aktivierungen in verschiedenen Schichten zeigt der Referent, wie bestimmte Neuronen auf bestimmte Merkmale reagieren. Während die Interpretation neuronaler Netze begrenzt ist, können Visualisierungstechniken Einblicke und potenzielle Anwendungen wie Segmentierung, Rekonstruktion und Generierung gegnerischer Netze liefern.
Vorlesung 8 - Karriereberatung / Lektüre von Forschungsarbeiten
Stanford CS230: Tiefes Lernen | Herbst 2018 | Vorlesung 8 - Karriereberatung / Lektüre von ForschungsarbeitenIn diesem Vortrag gibt Professor Andrew Ng Ratschläge, wie man Forschungsarbeiten effizient liest und mit dem sich schnell entwickelnden Gebiet des Deep Learning Schritt hält. Er betont, wie wichtig es ist, die Arbeit in den einleitenden und abschließenden Abschnitten zusammenzufassen und auf die Abbildungen und Tabellen zu achten. Ng teilt auch Karriereratschläge und empfiehlt, dass Stellenbewerber sowohl über breite als auch über fundierte Kenntnisse in mehreren Bereichen der KI und des maschinellen Lernens verfügen und sich auf die Zusammenarbeit mit Einzelpersonen statt mit großen Markennamen konzentrieren sollten, um die Wachstumschancen zu maximieren. Er schlägt Konsistenz beim Lesen von Artikeln und beim Aufbau horizontaler und vertikaler Fähigkeiten durch Kurse und Projekte vor, um eine starke Grundlage für maschinelles Lernen zu schaffen.
Vorlesung 9 - Deep Reinforcement Learning
Stanford CS230: Tiefes Lernen | Herbst 2018 | Vorlesung 9 - Deep Reinforcement Learning
Die Vorlesung führt in Deep Reinforcement Learning ein, das Deep Learning und Reinforcement Learning kombiniert. Reinforcement Learning wird verwendet, um in Situationen mit verzögerten Labels gute Entscheidungsfolgen zu treffen, und es wird in verschiedenen Bereichen wie Robotik, Spielen und Werbung angewendet. Deep Reinforcement Learning ersetzt die Q-Tabelle durch eine Q-Funktion, die ein neuronales Netzwerk ist. Der Dozent diskutiert die Herausforderungen bei der Anwendung von Deep Reinforcement Learning, beschreibt aber eine Technik zur Erstellung eines Zielwerts für Q-Scores basierend auf der Bellman-Gleichung, um das Netzwerk zu trainieren. Der Vortrag diskutiert auch die Bedeutung der Wiederholung von Erfahrungen beim Training von Deep Reinforcement Learning und den Kompromiss zwischen Exploitation und Exploration in RL-Algorithmen. Auch die praktische Anwendung von Deep Reinforcement Learning auf das Spiel Breakout wird diskutiert.
Der Vortrag behandelt verschiedene Themen rund um Deep Reinforcement Learning (DRL). Der Kompromiss zwischen Exploration und Exploration in DRL wird diskutiert, und es wird eine Lösung vorgeschlagen, die einen Hyperparameter verwendet, der über die Wahrscheinlichkeit einer Exploration entscheidet. Es wird untersucht, wie wichtig menschliches Wissen in DRL ist und wie es algorithmische Entscheidungsprozesse verbessern kann. Der Vortrag behandelt auch politische Gradienten, verschiedene Methoden zu ihrer Umsetzung und die Prävention von Overfitting. Darüber hinaus werden die Herausforderungen in spärlichen Belohnungsumgebungen hervorgehoben, und eine Lösung aus einem kürzlich erschienenen Artikel mit dem Titel „Unifying the Count-based Metas for Exploration“ wird kurz diskutiert. Schließlich erwähnt der Vortrag kurz die YOLO- und YOLO-v2-Papiere von Redmon et al. zum Thema Objekterkennung.
Vorlesung 10 - Chatbots / Schlusswort
Stanford CS230: Tiefes Lernen | Herbst 2018 | Vorlesung 10 - Chatbots / Schlusswort
Das Video behandelt verschiedene Themen im Zusammenhang mit dem Aufbau von Chatbots mit Deep Learning. Der Dozent diskutiert Natural Language Processing, Information Retrieval und Reinforcement Learning als Methoden zum Aufbau von Chatbots. Die Bedeutung von Kontext, Intent-Klassifizierung, Slot-Tagging und gemeinsamem Training wird betont. Der Vortrag behandelt auch Möglichkeiten zur automatischen Generierung von Daten für das Training von Chatbots, die Bewertung ihrer Leistung und den Aufbau von Kontextmanagementsystemen für sie. Der Dozent ermutigt die Studenten, ihre Fähigkeiten einzusetzen, um an sinnvollen Projekten zu arbeiten und die gesamte Menschheit zu erheben. Abschließend dankt er den Studenten für ihre harte Arbeit und ermutigt sie, weiterhin mithilfe von KI etwas in der Welt zu bewirken.
Teil 1/2 des vollständigen Kurses „Maschinelles Lernen“ – Maschinelles Lernen lernen 10 Stunden | Lernprogramm für maschinelles Lernen | Edureka
Der Einfachheit halber stellen wir einen allgemeinen Zeitplan und dann einen detaillierten für jeden Teil bereit. Sie können direkt zum richtigen Moment gehen, in einem für Sie bequemen Modus schauen und nichts verpassen.
Detaillierter Zeitplan für Teile des Videokurses
Teil 1
Teil 2
Teil 3
Teil 4