Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
Leçon 9 : Fondements de l'apprentissage en profondeur pour une diffusion stable, 2022
Leçon 9 : Fondements de l'apprentissage en profondeur pour une diffusion stable, 2022
Cette vidéo fournit une introduction à l'apprentissage en profondeur, expliquant comment fonctionnent les modèles de diffusion stables et comment ils peuvent être appliqués pour générer de nouvelles images. La vidéo comprend une démonstration de l'utilisation de la bibliothèque Diffusers pour créer des images qui ressemblent à des chiffres manuscrits. Il introduit également le concept de diffusion stable, qui est une méthode de formation des réseaux de neurones. L'idée de base est de modifier les entrées d'un réseau de neurones afin de changer la sortie. Dans cette vidéo, l'instructeur explique comment créer un réseau de neurones capable d'identifier correctement les chiffres manuscrits à partir d'une entrée bruyante. Cette vidéo explique comment former un modèle d'apprentissage automatique à l'aide d'un algorithme d'apprentissage en profondeur. Le modèle est initialisé avec un ensemble de variables latentes (représentant les données) et utilise un décodeur pour comprendre les données brutes. Ensuite, un encodeur de texte est utilisé pour créer des légendes lisibles par machine pour les données. Enfin, un U-Net est formé en utilisant les sous-titres comme entrée, et les gradients (la "fonction de score") sont utilisés pour ajuster les niveaux de bruit dans les données de formation.
Les défis de l'apprentissage en profondeur (Dr Razvan Pascanu - DeepMind)
Les défis de l'apprentissage en profondeur (Dr Razvan Pascanu - DeepMind)
Le Dr Razvan Pascanu de DeepMind discute de plusieurs défis de l'apprentissage en profondeur dans cette vidéo. Il souligne l'importance de l'adaptabilité et du changement d'orientation des mesures de performance, et suggère que les limites des ressources informatiques dans les systèmes d'apprentissage en profondeur peuvent en fait être bénéfiques. De plus, il explore les défis de l'apprentissage continu et le sous-domaine de l'apprentissage automatique qui y est lié, y compris l'impact de la taille et de l'architecture sur les performances des modèles d'apprentissage en profondeur. Le Dr Pascanu discute également du rôle de la descente de gradient stochastique, de l'importance des biais explicites et du concept de pré-formation et d'ajout de biais inductifs dans les modèles d'apprentissage en profondeur.
Le Dr Razvan Pascanu de DeepMind discute de la question de l'oubli dans l'apprentissage en profondeur et de la façon dont les modèles peuvent s'en remettre. Bien que certaines connaissances puissent encore subsister après un oubli, il est difficile de déterminer la quantité d'informations perdues. Le Dr Pascanu mentionne que des articles récents sur l'oubli ciblé se sont concentrés sur la confidentialité des données, mais que davantage de recherches et de concentration sont nécessaires dans ce domaine.
CS 198-126 : Modern Computer Vision Automne 2022 (Université de Californie, Berkeley) Cours 1 - Introduction à l'apprentissage automatique
CS 198-126 : Cours 1 - Introduction à l'apprentissage automatique
Dans cette conférence sur l'apprentissage automatique, l'instructeur couvre un large éventail de sujets, y compris une introduction au cours, un aperçu de l'apprentissage automatique, différents types d'apprentissage automatique, le pipeline d'apprentissage automatique, les données d'étiquetage et la fonction de perte. Le concept de compromis biais-variance, de surajustement et de sous-ajustement est également discuté. L'instructeur insiste sur l'importance de choisir la bonne fonction au cours du processus d'apprentissage automatique et sur le rôle des hyperparamètres dans le processus. L'objectif global de l'apprentissage automatique est de prédire avec précision les nouvelles données, et pas seulement de s'adapter aux données de formation. Le conférencier encourage les étudiants à assister au cours et à faire un effort pour en savoir plus sur l'apprentissage automatique et l'apprentissage en profondeur.
CS 198-126 : Cours 2 - Introduction à l'apprentissage en profondeur, Partie 1
CS 198-126 : Cours 2 - Introduction à l'apprentissage en profondeur, Partie 1
Dans cette conférence YouTube sur l'introduction à l'apprentissage en profondeur, l'instructeur explique les bases des modèles d'apprentissage en profondeur et comment les former à l'aide de la descente de gradient, couvrant différents éléments constitutifs des réseaux de neurones et pourquoi l'apprentissage en profondeur est une technologie si répandue. La conférence présente le perceptron et l'empilement de plusieurs perceptrons pour créer un réseau neuronal plus complexe et sophistiqué, et explique comment calculer la sortie par multiplication matricielle et une addition finale, la couche intermédiaire utilisant une fonction d'activation ReLU. L'orateur aborde l'utilisation de la fonction Softmax et de la fonction d'activation ReLU, en utilisant les fonctions de perte comme mesures pour évaluer la performance du modèle, et le concept d'optimisation de descente de gradient. Enfin, l'instructeur discute de l'idée d'apprentissage en profondeur et de la façon dont un grand réseau de neurones entraîne une faible perte malgré sa capacité à mémoriser les données. Le conférencier introduit également le concept de réglage des hyperparamètres dans les réseaux de neurones pour améliorer leurs performances avec des ensembles de données spécifiques. Il note qu'il n'y a pas de valeurs universelles pour les hyperparamètres et suggère d'explorer différentes options telles que les numéros de couche et les fonctions d'activation. En raison de contraintes de temps, la conférence se termine brusquement, mais le conférencier assure aux étudiants que le quiz à venir ne sera pas trop difficile et sera accessible sur la plateforme GreatScope.
CS 198-126 : Cours 3 - Introduction à l'apprentissage en profondeur, partie 2
CS 198-126 : Cours 3 - Introduction à l'apprentissage en profondeur, partie 2
Dans cette section de la conférence, le concept de rétropropagation est expliqué, qui est un moyen plus rapide d'obtenir toutes les dérivées partielles requises pour l'algorithme de descente de gradient sans effectuer d'opérations redondantes. Le conférencier explique également comment améliorer la descente de gradient vanille pour l'optimisation de l'apprentissage en profondeur et présente Momentum, RMSprop et Adam comme méthodes d'optimisation. L'importance de garder une trace de l'historique de formation d'un modèle, l'utilisation de la normalisation par lots et l'assemblage comme technique pour améliorer les performances du modèle sont également discutées, ainsi que les techniques couramment utilisées dans l'apprentissage en profondeur pour aider à réduire le surajustement tel que l'abandon et les sauts de connexions. Enfin, le conférencier aborde brièvement la facilité d'utilisation de PyTorch et ouvre la parole aux questions.
CS 198-126 : Cours 4 - Introduction à la préformation et aux augmentations
CS 198-126 : Cours 4 - Introduction à la préformation et aux augmentations
Dans cette conférence, le conférencier explique l'évolution de l'extraction de caractéristiques dans l'apprentissage automatique, les avantages de l'apprentissage en profondeur et comment l'apprentissage par transfert peut être utilisé pour améliorer la précision et la vitesse des modèles. Ils discutent également du concept de gel et de réglage fin des couches dans les réseaux de neurones et de l'importance des intégrations dans la réduction de la dimensionnalité des variables catégorielles. La conférence présente l'apprentissage auto-supervisé et ses différentes tâches, y compris les tâches de puzzle, de rotation et de prédiction de mots masqués, qui peuvent être utilisées pour pré-entraîner des modèles et transférer des représentations apprises vers des tâches en aval. Enfin, le regain d'intérêt pour l'apprentissage auto-supervisé en vision par ordinateur est discuté, et la conférence encourage les étudiants à compléter les devoirs sur le cahier high Crush.
simple pour les données tabulaires, mais complexe pour les données comme le texte, l'audio ou les images. Cependant, pour les images, il existe des extracteurs de caractéristiques spécialisés disponibles en vision par ordinateur classique.
CS 198-126 : Cours 5 - Introduction à la vision par ordinateur
CS 198-126 : Cours 5 - Introduction à la vision par ordinateur
Cette conférence sur la vision par ordinateur couvre divers sujets, y compris l'histoire de la vision par ordinateur et son développement au fil des ans. L'instructeur explique également l'apprentissage en profondeur et comment il améliore les méthodes classiques de vision par ordinateur. La conférence se penche sur le concept de convolutions et sur la manière dont elles sont utilisées comme extracteurs de caractéristiques dans la vision par ordinateur, conduisant à la création de réseaux de neurones convolutifs (CNN). De plus, la conférence discute du rôle des champs réceptifs et présente les couches de regroupement comme méthode pour augmenter le champ réceptif des CNN. Dans l'ensemble, la conférence donne un aperçu de la vision par ordinateur en tant que domaine et des techniques utilisées pour extraire des informations à partir d'images. Dans la deuxième partie du cours, diverses techniques pour préserver la taille d'une image pendant les convolutions sont discutées, y compris le rembourrage et le même rembourrage. Le concept de foulée dans les couches convolutionnelles est également couvert, démontrant comment il peut imiter l'effet d'une couche de regroupement. L'anatomie d'un CNN et ses hyper-paramètres, y compris la taille du noyau, la foulée, le rembourrage et les couches de regroupement, sont expliqués, en mettant l'accent sur la façon dont une couche convolutive agit comme un extracteur de caractéristiques qui transmet des blocs de caractéristiques de faible dimension à un entièrement connecté. réseau de classement. Les conférences couvrent également l'architecture du réseau LeNet pour la classification des chiffres manuscrits et l'importance de normaliser les données d'image avant de les faire passer par un réseau de neurones. Enfin, l'augmentation des données est discutée en tant que technique de création de données d'entraînement supplémentaires, et l'importance du point de contrôle du modèle pendant l'entraînement est soulignée.
CS 198-126 : Cours 6 - Architectures avancées de vision par ordinateur
CS 198-126 : Cours 6 - Architectures avancées de vision par ordinateur
Cette conférence sur les architectures avancées de vision par ordinateur se concentre sur les réseaux de neurones convolutifs (CNN) et leurs différentes techniques. Le conférencier explique l'architecture d'AlexNet et de VGG avant de se plonger dans des techniques avancées telles que les résidus pour maintenir des valeurs résiduelles en arrière pour une plus grande précision et des architectures plus simples. L'utilisation de goulots d'étranglement et de convolutions un par un est discutée, ainsi que l'importance de pouvoir apprendre l'identité dans les architectures de vision par ordinateur. La conférence couvre également les problèmes de disparition des gradients dans les réseaux de neurones et comment ils peuvent être atténués avec la normalisation par lots et les réseaux résiduels. Des techniques telles que la mise en commun moyenne globale et la convolution séparable en profondeur sont expliquées en profondeur, suivies d'une discussion sur l'architecture du réseau mobile et ses avantages.
Le conférencier examine également les architectures avancées de vision par ordinateur et se concentre sur l'optimisation des modèles de réseaux neuronaux convolutifs en utilisant des convolutions locales par étapes et des convolutions une par une. Il souligne l'importance de comprendre ces optimisations et les problèmes qui peuvent survenir avec certaines optimisations pour construire efficacement les futurs réseaux. La conférence se termine par une discussion sur le compromis entre la précision, la performance et la taille du modèle, mis en évidence par la comparaison du modèle net efficace à d'autres réseaux. Les étudiants sont informés d'un quiz à venir et d'un devoir à rendre le vendredi suivant.
CS 198-126 : Cours 7 - Détection d'objets
CS 198-126 : Cours 7 - Détection d'objets
La conférence traite de la détection d'objets, en ajoutant spécifiquement la localisation à un CNN de classification simple, la méthode IOU pour la détection d'objets, le système R-CNN et l'optimisation des algorithmes de détection d'objets pour minimiser le temps de traitement avec YOLO. La vidéo explique YOLO en coupant une image et discute des défis de la détection d'objets YOLO, y compris l'utilisation de boîtes d'ancrage pour éliminer l'ambiguïté. Enfin, l'architecture YOLO est explorée, qui est un réseau neuronal entièrement convolutif pour la détection d'objets, et le stockage d'un grand nombre de classes pour la classification est présenté comme une question de recherche en cours. L'orateur recommande de lire "The Yellow Paper" tout en déconseillant RCNN en raison de son illisibilité.
CS 198-126 : Cours 8 - Segmentation sémantique
CS 198-126 : Cours 8 - Segmentation sémantique
La conférence traite de la segmentation des images, y compris la segmentation sémantique et la segmentation des instances. L'objectif principal de la segmentation est de détecter tous les objets d'une image et de les séparer. Le conférencier explique comment un réseau neuronal convolutif (CNN) peut être utilisé pour la segmentation sémantique et comment le sous-échantillonnage peut aider avec des images pleine résolution coûteuses en calcul. Différentes approches pour transformer un petit volume en une taille d'image sont également discutées. La conférence présente le U-Net, un modèle de segmentation sémantique qui combine les améliorations précédentes avec des connexions de saut, et explique comment il peut être étendu à la segmentation d'instance en utilisant l'approche Mask R-CNN. Un modèle de segmentation sémantique pré-formé est démontré, et le conférencier parle de la pré-formation et des devoirs de cours à venir.