Apprentissage Automatique et Réseaux Neuronaux - page 2

 

MIT 6.S191 : Modélisation générative profonde



Cours 4. MIT 6.S191 : Modélisation générative profonde

Cette vidéo explique comment la modélisation générative approfondie peut être utilisée pour apprendre une représentation plus fluide et complète des données d'entrée, qui peuvent ensuite être utilisées pour générer de nouvelles images. La clé du DGM consiste à introduire une distribution de probabilité pour chaque variable latente, ce qui permet au réseau d'échantillonner à partir de cette distribution latente pour générer de nouvelles données.

  • 00:00:00 Dans cette conférence, Ava explique comment des modèles génératifs approfondis peuvent être utilisés pour apprendre les distributions de probabilité sous-jacentes aux ensembles de données. Il montre comment deux méthodes, l'estimation de la densité et la génération d'échantillons, fonctionnent en pratique.

  • 00:05:00 Dans cette vidéo, le présentateur explique comment les modèles génératifs peuvent être utilisés pour apprendre les fonctionnalités sous-jacentes d'un ensemble de données. Cela peut être utile dans des applications telles que la détection faciale ou la détection de valeurs aberrantes.

  • 00:10:00 L'auto-encodeur est un puissant algorithme d'apprentissage automatique qui permet la compression de données d'entrée de grande dimension dans un espace latent de dimension inférieure. Cet espace latent peut ensuite être utilisé pour coder les données pour une reconstruction ultérieure. Avec un auto-encodeur variationnel, l'espace latent est probabiliste, permettant des reconstructions plus réalistes et précises des données d'entrée.

  • 00:15:00 La vidéo explique comment la modélisation générative approfondie (DGM) peut être utilisée pour apprendre une représentation plus fluide et complète des données d'entrée, qui peuvent ensuite être utilisées pour générer de nouvelles images. La clé du DGM consiste à introduire une distribution de probabilité pour chaque variable latente, ce qui permet au réseau d'échantillonner à partir de cette distribution latente pour générer de nouvelles données. La perte du réseau est maintenant composée du terme de reconstruction et du terme de régularisation, ce qui impose une certaine structure à la distribution de probabilité des variables latentes. Le réseau est formé pour optimiser la perte par rapport aux poids du réseau, et les poids sont mis à jour de manière itérative au cours de la formation.

  • 00:20:00 La vidéo explique comment un terme de régularisation, d, aide à minimiser la distance entre la distribution latente déduite et un a priori. Il montre également comment le prior normal peut aider à atteindre cet objectif.

  • 00:25:00 La vidéo explique comment la modélisation générative approfondie est utilisée pour reconstruire une entrée à partir d'un ensemble de points de données. La méthode consiste à imposer une régularisation à base normale sur l'espace latent, ce qui permet de le lisser et de le compléter. Cela permet à son tour la rétro-propagation des gradients à travers la couche d'échantillonnage, ce qui résout le problème de la stochasticité empêchant la propagation directe des gradients à travers le réseau.

  • 00:30:00 Cette vidéo explique comment les modèles de variables latentes (tels que les auto-encodeurs variationnels ou Beta Vaes) peuvent être utilisés pour encoder des caractéristiques importantes dans un ensemble de données. Cela permet des modèles d'apprentissage automatique plus impartiaux, car les fonctionnalités importantes sont automatiquement encodées.

  • 00:35:00 Les GAN utilisent un réseau de générateurs pour générer des échantillons similaires aux données réelles, tandis qu'un réseau adverse essaie de distinguer les faux échantillons des vrais. Après la formation, le générateur et le discriminateur sont capables de séparer les fausses données des vraies données avec une précision presque parfaite.

  • 00:40:00 La vidéo traite de la fonction de perte pour les modèles génératifs profonds, qui se résume aux concepts qui ont été introduits dans les conférences précédentes. L'objectif du réseau discriminateur est d'identifier les fausses données, et l'objectif du réseau générateur est de générer des données aussi proches que possible de la véritable distribution des données. Le réseau générateur de train synthétise de nouvelles instances de données basées sur une distribution de bruit gaussien complètement aléatoire. Si nous considérons un point dans cette distribution de bruit, un point dans la vraie distribution de données et un point dans la distribution de données cible, nous pouvons voir que le générateur apprend à générer des données qui se situent quelque part entre ces points. Cette idée de transformation de domaine et de parcours dans des variétés de données complexes est discutée plus en détail, et il est montré comment les gans sont une architecture puissante pour générer des exemples de données réalistes.

  • 00:45:00 La vidéo présente certaines avancées récentes de la modélisation générative approfondie, notamment des améliorations de l'architecture et du transfert de style. Il décrit ensuite le modèle cyclegan, qui permet la traduction entre domaines avec des données complètement non appariées.

  • 00:50:00 Dans cette partie, Ava aborde les deux principaux modèles génératifs utilisés dans l'apprentissage en profondeur, les encodeurs automatiques variationnels et les encodeurs automatiques, et explique leur fonctionnement. Il mentionne également le cycle gan, un puissant transformateur de distribution qui peut être utilisé conjointement avec ces modèles. L'auteur conclut la conférence en exhortant les participants à assister à la partie laboratoire du cours, qui suivra immédiatement après.
MIT 6.S191 (2022): Deep Generative Modeling
MIT 6.S191 (2022): Deep Generative Modeling
  • 2022.04.01
  • www.youtube.com
MIT Introduction to Deep Learning 6.S191: Lecture 4Deep Generative ModelingLecturer: Ava SoleimanyJanuary 2022For all lectures, slides, and lab materials: ht...
 

MIT 6.S191 : Apprentissage par renforcement



Cours 5. MIT 6.S191 : Apprentissage par renforcement

Dans cette vidéo, Alexander Amini discute du concept d'apprentissage par renforcement et de la façon dont il peut être utilisé pour entraîner un réseau de neurones. Il commence par expliquer comment fonctionne l'apprentissage par renforcement et comment il peut être utilisé dans des scénarios réels. Il poursuit ensuite en discutant de la manière de former un réseau de gradient de politique. Enfin, il conclut la vidéo en expliquant comment mettre à jour le gradient de politique à chaque itération de la boucle de formation.

  • 00:00:00 Dans cette vidéo, nous découvrons l'apprentissage par renforcement, un type d'apprentissage automatique où un modèle d'apprentissage en profondeur est formé sans avoir de connaissance préalable des données d'entrée. Dans l'apprentissage par renforcement, le modèle d'apprentissage en profondeur est placé dans un environnement dynamique et est chargé d'apprendre à accomplir une tâche sans aucune aide humaine. Cela a d'énormes implications dans une variété de domaines, tels que la robotique, le gameplay et les voitures autonomes.

  • 00:05:00 Dans l'apprentissage par renforcement, l'agent est l'entité qui agit dans l'environnement, et l'environnement est le monde dans lequel l'agent existe et agit. L'agent peut envoyer des commandes à l'environnement sous forme d'actions, et un état est une situation concrète et immédiate dans laquelle se trouve l'agent à ce moment précis. L'agent peut également récupérer des récompenses de l'environnement.

  • 00:10:00 Cette partie du cours sur l'apprentissage par renforcement décrit les concepts de récompense, de gamma et de la fonction q. La fonction q prend en entrée l'état et l'action actuels, et renvoie la somme future totale attendue des récompenses qu'un agent peut recevoir après cette action. La fonction q peut être utilisée pour déterminer la meilleure action à entreprendre dans un état donné, compte tenu de l'état et de l'action actuels.

  • 00:15:00 Dans cette partie, Alexander Amini présente le jeu d'évasion Atari et sa fonction q associée. Il poursuit en discutant des algorithmes d'apprentissage de la valeur, qui sont basés sur la recherche d'une fonction aq qui maximise les récompenses futures. Il présente ensuite un algorithme d'apprentissage des politiques, qui est une manière plus directe de modéliser le problème de l'apprentissage par renforcement. L'apprentissage des valeurs et l'apprentissage des politiques sont brièvement discutés, et les résultats d'une étude sur l'apprentissage des valeurs sont présentés.

  • 00:20:00 La vidéo traite de l'apprentissage par renforcement, ou du processus d'apprentissage pour optimiser une décision en expérimentant une variété d'actions et de résultats possibles. La vidéo montre deux exemples de la façon dont un agent peut se comporter, l'un où l'agent est très conservateur et l'autre où l'agent est plus agressif. La vidéo poursuit ensuite en expliquant comment former un réseau de neurones pour apprendre la fonction q, qui est l'action optimale à entreprendre en fonction d'un état et d'une action.

  • 00:25:00 Cette partie explique comment former un agent d'apprentissage par renforcement de la valeur q. La valeur q est une mesure de l'importance relative des différents résultats et est utilisée pour structurer le réseau neuronal. Le rendement attendu pour chaque action possible est calculé, et la meilleure action est déterminée en maximisant ce rendement attendu. La fonction de perte de valeur q est utilisée pour former le réseau de neurones, et la valeur cible est déterminée en observant les récompenses reçues pour chaque action.

  • 00:30:00 Dans l'apprentissage par renforcement, le comportement d'un agent est modifié en utilisant les commentaires d'un environnement afin de maximiser une récompense. Les méthodes de gradient de politique sont une nouvelle classe d'algorithmes d'apprentissage par renforcement qui sont plus flexibles et efficaces que les algorithmes d'apprentissage par valeur.

  • 00:35:00 Dans cette partie, Alexander Amini présente l'apprentissage par renforcement, une méthode pour apprendre à agir en présence de récompenses et de punitions. Dans l'apprentissage par renforcement, la politique d'un agent est définie comme une fonction qui prend un état (l'environnement dans lequel se trouve l'agent) et génère une probabilité d'entreprendre une action spécifique dans cet état. Cette probabilité est ensuite utilisée pour former un réseau de neurones afin de prédire la prochaine action de l'agent, en fonction de l'état actuel et des récompenses et punitions passées. Les avantages de cette approche de l'apprentissage sont qu'elle peut gérer des espaces d'action continus et que les méthodes de gradient de politique peuvent être utilisées pour modéliser des actions continues avec une grande précision.

  • 00:40:00 Dans cette vidéo, Alexander Amini explique comment les gradients de politique peuvent être utilisés pour améliorer les performances des algorithmes d'apprentissage par renforcement. Il commence par décrire un espace continu et comment les intégrales peuvent être utilisées à la place des sommations discrètes. Il poursuit ensuite en expliquant comment les gradients de politique fonctionnent dans un exemple concret, et explique comment former un réseau de gradient de politique. Il conclut la vidéo en expliquant comment mettre à jour le gradient de politique à chaque itération de la boucle de formation.

  • 00:45:00 Cette partie présente une méthode d'entraînement d'un réseau de neurones à l'aide de l'apprentissage par renforcement. La vidéo explique comment fonctionne l'apprentissage par renforcement et comment il peut être utilisé dans des scénarios réels.

  • 00:50:00 Dans cette vidéo, Alexander Amini discute de certaines des avancées récentes en matière d'apprentissage par renforcement, en particulier dans le domaine du Go. Alpha Zero, un projet Google DeepMind, a pu surpasser les meilleurs joueurs humains du monde. Dans la prochaine conférence, Nielsen discutera de la littérature sur l'apprentissage en profondeur et de ses limites. Nous espérons que cela motivera les étudiants à continuer à apprendre et à faire progresser le domaine.
MIT 6.S191 (2022): Reinforcement Learning
MIT 6.S191 (2022): Reinforcement Learning
  • 2022.04.08
  • www.youtube.com
MIT Introduction to Deep Learning 6.S191: Lecture 5Deep Reinforcement LearningLecturer: Alexander AminiJanuary 2022For all lectures, slides, and lab material...
 

MIT 6.S191 (2022) : Nouvelles frontières de l'apprentissage en profondeur



Cours 6. MIT 6.S191 (2022) : Deep Learning New Frontiers

La conférence "Deep Learning New Frontiers" du MIT 6.S191 couvre un éventail de sujets. La conférencière Ava Soleimany explique les différentes échéances du cours, présente les conférenciers invités et discute des frontières actuelles de la recherche. Les limites des réseaux de neurones profonds concernant le théorème d'approximation universel, la généralisation, la qualité des données, l'incertitude et les attaques contradictoires sont également abordées. De plus, les réseaux de neurones à convolution de graphes et leurs applications potentielles dans différents domaines, tels que la découverte de médicaments, la mobilité urbaine et la prévision du COVID-19, sont discutés. Enfin, la conférence explore le sujet de l'apprentissage automatique automatisé (autoML) et comment il peut aider à concevoir des modèles d'apprentissage automatique et d'apprentissage en profondeur très performants. Le conférencier conclut en soulignant l'importance du lien et de la distinction entre les modèles d'apprentissage humain, d'intelligence et d'apprentissage en profondeur.

  • 00:00:00 Dans cette section, Ava fournit des informations logistiques concernant les t-shirts de classe et les dates limites à venir pour les laboratoires et les projets finaux. Ils présentent également les conférences invitées restantes et abordent les nouvelles frontières de la recherche qui seront couvertes. Le laboratoire d'apprentissage par renforcement a été publié et la date d'échéance pour les trois laboratoires est demain soir, mais il n'est pas nécessaire de les soumettre pour recevoir une note de passage. La soumission d'un examen d'un document d'apprentissage en profondeur ou d'une présentation finale du projet est requise pour le crédit du cours. Le concours de proposition de projet final nécessite la soumission des noms de groupe avant minuit ce soir, et les instructions pour le rapport sur l'apprentissage en profondeur sont résumées.

  • 00:05:00 Dans cette section, l'orateur discute de l'incroyable gamme de conférences invitées prévues pour les prochaines sessions du cours. Les conférenciers invités comprennent des représentants de la société émergente de voitures autonomes Innoviz, Google Research et Google Brain, Nvidia et Caltech, et Rev AI. L'orateur souligne l'importance d'assister aux conférences de manière synchrone pour assurer un accès complet au contenu. L'orateur récapitule également le contenu couvert dans le cours jusqu'à présent, soulignant la puissance des algorithmes d'apprentissage en profondeur et leur potentiel à révolutionner un éventail de domaines. Le conférencier souligne également le rôle des réseaux de neurones en tant que puissants approximateurs de fonctions, mappant des données à la décision ou vice versa.

  • 00:10:00 Dans cette section, l'orateur discute du théorème d'approximation universel, qui stipule qu'un réseau de neurones à réaction directe à une seule couche est suffisant pour approximer n'importe quelle fonction continue arbitraire avec n'importe quelle précision. Bien qu'il s'agisse d'une déclaration puissante, le théorème comporte quelques mises en garde, notamment l'absence d'affirmations ou de garanties sur le nombre de neurones nécessaires et sur la manière de trouver des poids qui pourraient résoudre le problème. De plus, le théorème ne fait aucune déclaration sur la généralisabilité du réseau de neurones au-delà du cadre sur lequel il a été formé. L'orateur souligne l'importance de faire attention à la façon dont ces algorithmes sont commercialisés et annoncés en raison des problèmes potentiels qui pourraient survenir. La section se penche également sur les limites des architectures modernes d'apprentissage en profondeur, en commençant par le problème de la généralisation et un article qui a exploré ce problème avec des images du célèbre jeu de données ImageNet.

  • 00:15:00 Dans cette section, la vidéo traite des limites des réseaux de neurones profonds et de leur capacité à s'adapter parfaitement à des données entièrement aléatoires. Alors que les réseaux de neurones sont d'excellents approximateurs de fonctions qui peuvent s'adapter à certaines fonctions arbitraires même si elles ont des étiquettes aléatoires, ils sont limités dans leur capacité à généraliser aux régions hors distribution où il n'y a aucune garantie sur la façon dont la fonction pourrait se comporter. Cela met en évidence la nécessité d'établir des garanties sur les limites de généralisation des réseaux de neurones et d'utiliser ces informations pour éclairer les processus de formation, d'apprentissage et de déploiement. La vidéo met également en garde contre la croyance populaire selon laquelle l'apprentissage en profondeur est une solution magique à tout problème et souligne l'importance de comprendre les limites et les hypothèses de ces modèles.

  • 00:20:00 Dans cette section, l'importance de la qualité des données utilisées pour former des modèles d'apprentissage en profondeur est soulignée. Un mode de défaillance des réseaux neuronaux est décrit à travers un exemple où une image en noir et blanc d'un chien a été transmise à travers une architecture de réseau neuronal convolutionnel pour la colorisation. Le réseau a prédit une région rose sous le nez du chien, qui aurait dû être la fourrure, en raison de la nature des données sur lesquelles il a été formé, qui comprenait de nombreuses images de chiens tirant la langue. L'exemple met en évidence la puissance des modèles d'apprentissage en profondeur pour construire des représentations basées sur les données qu'ils ont vues pendant la formation. La section traite ensuite des conséquences de la rencontre d'exemples du monde réel qui ne font pas partie de la distribution de la formation, comme on l'a vu dans un incident tragique impliquant un véhicule Tesla autonome qui n'a pas réagi efficacement à un accident, entraînant finalement la mort du conducteur. L'importance de comprendre les limites des prédictions des modèles d'apprentissage en profondeur, en particulier dans les applications critiques pour la sécurité, est soulignée.

  • 00:25:00 Dans cette section, le présentateur aborde la notion d'incertitude dans l'apprentissage en profondeur, qui est cruciale pour la construction de modèles neuronaux capables de gérer des ensembles de données clairsemés, bruyants ou limités, y compris des caractéristiques déséquilibrées. Il existe deux types d'incertitudes dans les modèles neuronaux profonds ; l'incertitude aléatoire et l'incertitude épistémique, qui peuvent résulter du bruit des données, de la variabilité ou du test d'un exemple hors domaine. Ces incertitudes représentent la confiance du modèle dans ses prédictions et peuvent avoir un impact sur son efficacité lors du traitement de différents types de données. De plus, les exemples contradictoires, qui sont des instances synthétiques créées pour induire en erreur les modèles d'apprentissage en profondeur, présentent un troisième mode de défaillance qui doit être pris en compte. La conférence invitée de Jasper sur ce sujet est fortement recommandée pour explorer le débat sur la question de savoir si ces deux types d'incertitudes englobent toutes les possibilités et pour discuter des progrès récents de la recherche dans ce domaine.

  • 00:30:00 Dans cette section de la vidéo, le conférencier aborde le concept d'attaques contradictoires, où une perturbation est appliquée à une image imperceptible à l'œil humain mais a un impact significatif sur la décision d'un réseau de neurones, entraînant une mauvaise classification de l'image. La perturbation est construite intelligemment pour fonctionner efficacement comme un adversaire, et les réseaux de neurones peuvent être formés pour apprendre cette perturbation. Le conférencier aborde également brièvement la question des biais algorithmiques, où les modèles de réseaux de neurones et les systèmes d'IA peuvent être sensibles à des biais qui peuvent avoir des conséquences sociétales réelles et néfastes, et des stratégies pour atténuer les biais algorithmiques ont été explorées dans le deuxième laboratoire. Ces limitations ne sont que la pointe de l'iceberg, et il y a d'autres limitations à prendre en compte.

  • 00:35:00 Dans cette section, l'orateur discute de l'utilisation des structures de graphes comme modalité de données pour l'apprentissage en profondeur et comment cela peut inspirer un nouveau type d'architecture de réseau liée aux réseaux de neurones convolutionnels mais différente. Les structures de graphes peuvent représenter une grande variété de types de données, des réseaux sociaux aux protéines et aux molécules biologiques. Les réseaux de neurones convolutifs de graphes fonctionnent en prenant un ensemble de nœuds et d'arêtes comme entrée au lieu d'une matrice 2D et en traversant le graphe avec un noyau de poids pour extraire des caractéristiques qui préservent les informations sur la relation des nœuds entre eux. Ce domaine émergent de l'apprentissage en profondeur permet de capturer des géométries et des structures de données plus complexes au-delà des encodages standard.

  • 00:40:00 Dans cette section, l'orateur discute des réseaux convolutionnels de graphes et de leurs applications dans divers domaines, notamment la chimie et la découverte de médicaments, la mobilité urbaine et les prévisions COVID-19. Les réseaux convolutifs de graphes permettent l'extraction de caractéristiques sur la connectivité locale et la structure d'un graphe, permettant au processus d'apprentissage de récupérer des poids qui peuvent extraire des informations sur les modèles de connectivité. De plus, l'orateur explique comment les réseaux de neurones convolutifs de graphes peuvent être étendus aux ensembles de données de nuages de points, en imposant une structure de graphe sur la variété de nuages de points 3D.

  • 00:45:00 Dans cette section, le conférencier discute de la nouvelle frontière de l'apprentissage automatique et de l'apprentissage pour apprendre. L'objectif est de construire un algorithme d'apprentissage capable de résoudre le problème de conception des architectures de réseaux de neurones et de prédire le modèle le plus efficace pour résoudre un problème donné. Le framework automl d'origine utilisait une configuration d'apprentissage par renforcement avec un réseau neuronal de contrôleur et une boucle de rétroaction pour améliorer de manière itérative les propositions d'architecture du modèle. Récemment, automl a été étendu à la recherche d'architecture neuronale, où l'objectif est de rechercher des conceptions et des hyperparamètres optimaux. Ce nouveau domaine de recherche pourrait révolutionner la façon dont nous concevons les modèles d'apprentissage automatique et optimiser leurs performances.

  • 00:50:00 Dans cette section, le conférencier aborde le concept d'automl (apprentissage automatique de la machine) et sa capacité à concevoir des modèles d'apprentissage automatique et d'apprentissage en profondeur très performants. L'idée d'automl a gagné en popularité dans les pipelines de conception d'apprentissage automatique et d'apprentissage en profondeur modernes, en particulier dans les applications industrielles où ses algorithmes ont réussi à créer des architectures très performantes. Le conférencier présente un exemple de la façon dont les architectures proposées par un algorithme automl ont atteint une précision supérieure sur une tâche de reconnaissance d'image avec moins de paramètres que celles conçues par les humains. Automl a été étendu au concept plus large d'auto ai, où des pipelines entiers de traitement de données et de prédiction d'apprentissage sont conçus et optimisés par des algorithmes d'IA. Le conférencier conclut en encourageant l'auditoire à réfléchir aux implications de la conception d'une IA qui peut générer de nouveaux modèles hautement performants sur des tâches d'intérêt et aux liens et distinctions entre l'apprentissage humain, l'intelligence et les modèles d'apprentissage en profondeur.
MIT 6.S191 (2022): Deep Learning New Frontiers
MIT 6.S191 (2022): Deep Learning New Frontiers
  • 2022.04.15
  • www.youtube.com
MIT Introduction to Deep Learning 6.S191: Lecture 6Deep Learning Limitations and New FrontiersLecturer: Ava SoleimanyJanuary 2022For all lectures, slides, an...
 

MIT 6.S191 : LiDAR pour la conduite autonome



Conférence 7. MIT 6.S191 : LiDAR pour la conduite autonome

La vidéo « MIT 6.S191 : LiDAR pour la conduite autonome » présente le développement par Innoviz de la technologie LiDAR pour les véhicules autonomes, soulignant les avantages et l'importance des capacités de visibilité et de prédiction du système. Le conférencier explique les divers facteurs qui affectent le rapport signal/bruit du système LiDAR, l'importance de la redondance dans l'utilisation des capteurs et le besoin d'une haute résolution et d'une efficacité de calcul pour détecter les objets pertinents pour les collisions. Ils discutent également des défis des réseaux d'apprentissage en profondeur dans la détection et la classification des objets, des différentes représentations de données LiDAR et de la fusion des approches de regroupement et d'apprentissage en profondeur pour la détection d'objets et la précision de la boîte limite. De plus, la vidéo aborde les compromis entre le FMCW et le LiDAR à temps de vol. Dans l'ensemble, la discussion met l'accent sur le rôle essentiel du LiDAR dans l'amélioration de la sécurité et l'avenir de la conduite autonome.

  • 00:00:00 Dans cette section, l'orateur présente Innoviz et son développement de Lidars pour véhicules autonomes, en se concentrant spécifiquement sur la manière dont ils aident les constructeurs automobiles à atteindre leurs objectifs de développement de véhicules autonomes. L'orateur discute de l'état actuel de la conduite autonome et des problèmes de responsabilité qui découlent d'accidents dus au fait que le constructeur automobile n'assume pas l'entière responsabilité. Ils expliquent également l'utilisation de la technologie Lidar, qui utilise un faisceau laser pour balayer la scène et collecter les photons des objets. Le conférencier insiste sur l'importance d'avoir une bonne visibilité et une prédiction de ce qui se passe sur la route pour une conduite autonome réussie.

  • 00:05:00 Dans cette section, le conférencier explique le fonctionnement du LiDAR en conduite autonome et les différents facteurs qui affectent le rapport signal sur bruit. Le système LiDAR utilise des photons qui rebondissent pour déterminer la distance des objets et le rapport signal sur bruit est déterminé par l'émission, l'ouverture, l'efficacité de détection des photons, le bruit du détecteur et le bruit du soleil. Le conférencier explique également comment Innoviz 2, un système LiDAR de deuxième génération, est nettement meilleur que tout autre système disponible sur le marché, car il peut couvrir un champ de vision et une plage de distance plus larges avec une résolution plus élevée. Le conférencier discute également des différentes exigences pour les applications de conduite autonome telles que les autoroutes et de la manière dont le LiDAR peut prendre en charge ces applications.

  • 00:10:00 Dans cette section, l'orateur explique pourquoi la redondance est importante dans la conduite autonome, en particulier lorsqu'il s'agit de limiter les capteurs tels que les caméras, qui peuvent être obstrués par l'eau ou la lumière directe du soleil. Un bon système de conduite autonome assure non seulement la sécurité, mais conduit également en douceur pour éviter que les passagers ne s'épuisent. Les exigences de niveau trois impliquent d'avoir la capacité de voir l'avant du véhicule afin d'effectuer des accélérations, des freinages et des manœuvres en douceur. L'orateur aborde brièvement les exigences telles que le champ de vision et la projection de la trajectoire d'un objet, notant qu'une résolution plus élevée permet au capteur de mieux identifier les objets. Enfin, l'orateur fournit un cas d'utilisation pour le freinage d'urgence à 80 miles par heure.

  • 00:15:00 Dans cette section, l'orateur discute de l'importance de la résolution verticale du LiDAR et de son impact sur la prise de décision dans les véhicules autonomes. Ils expliquent qu'avoir deux pixels pour identifier un objet de grande taille est nécessaire pour la clarté, et que même si LiDAR avait deux fois la portée, cela n'aiderait pas nécessairement à la prise de décision s'il n'y a qu'un seul pixel. Ils discutent en outre de l'impact des fréquences d'images plus élevées et de la double résolution verticale, qui pourraient identifier les obstacles à une plus grande distance, et soulignent que ces paramètres sont essentiels à la sécurité des véhicules autonomes. L'orateur discute également brièvement des efforts de l'entreprise pour développer un système LiDAR à 360 degrés à haute résolution et rentable. Enfin, la section se termine par une discussion sur un algorithme simple qui peut détecter les points pertinents pour les collisions dans un nuage de points.

  • 00:20:00 Dans cette section, l'orateur explique un algorithme simple pour détecter les objets pertinents pour les collisions à l'aide de la technologie LiDAR. En mesurant la différence de hauteur entre des paires de points dans un nuage de points, les objets situés à 40 centimètres ou plus au-dessus du sol peuvent être facilement détectés. L'algorithme peut détecter des objets qui peuvent ne pas être représentés dans un ensemble d'apprentissage, tels que des camions de pompiers ou des objets dans différentes régions du monde. Le conférencier montre des exemples de la façon dont cet algorithme peut détecter les camions qui se retournent et les petits objets comme les pneus à distance. Cependant, bien que la détection d'objets statiques soit importante, il est également important de comprendre la dynamique des objets en mouvement pour prédire comment ils se déplaceront à l'avenir.

  • 00:25:00 Dans cette section, l'accent est mis sur les défis de la détection et de la classification d'objets comme les piétons à l'aide de réseaux d'apprentissage en profondeur, en particulier dans les scénarios où l'apparence d'objets comme les jambes et le torse n'est pas évidente, ou les objets sont trop éloignés. Lidar est une technologie utile dans ces scénarios car elle peut toujours classer et regrouper des objets car il n'est pas essentiel de voir leur apparence. Cet algorithme de clustering peut être appliqué dans des environnements de scénario réel comme la conduite, mais son instabilité et son ambiguïté soulignées par l'exemple d'un objet pouvant être classé comme deux objets différents, rendent plus difficile la construction d'un système robuste et utile pour le pile de véhicules autonomes de niveau supérieur. Par conséquent, l'analyse sémantique reste essentielle pour le système complet. Comprendre la nature non structurée et la rareté des données de nuages de points est également essentiel lors du traitement des données.

  • 00:30:00 Dans cette section, l'orateur discute de différentes représentations des données LiDAR qui peuvent être utilisées pour la conduite autonome, y compris des représentations structurées qui ressemblent à des images et à la voxélisation où les données sont divisées en volumes plus petits. Le défi avec les représentations structurées est qu'il peut être difficile d'exploiter les caractéristiques de mesure 3D des nuages de points, alors qu'avec la voxélisation, il est possible de comprendre les informations d'occlusion, qui peuvent être ajoutées en tant que couche supplémentaire dans le réseau pour un traitement efficace. L'orateur souligne l'importance de l'efficacité informatique dans la conduite autonome et le traitement en périphérie, où l'efficacité peut définir la solution.

  • 00:35:00 Dans cette section, le conférencier aborde les éléments clés du système Lidar pour la conduite autonome, en utilisant l'exemple de la détection d'une moto dans la voie du véhicule. Pour détecter et suivre avec précision la moto, il est essentiel de disposer d'un cadre de délimitation serré qui soit à la fois sémantiquement précis et efficace en termes de calcul. La solution est une fusion entre l'apprentissage en profondeur et les approches de clustering, combinant le meilleur des deux méthodes pour créer une liste d'objets solide et interprétable pour la sortie de la pile, ce qui est important pour les systèmes critiques pour la sécurité. La sortie fusionnée fournit des boîtes de délimitation précises avec des classes, ce qui se traduit par une intégration plus transparente du Lidar et du logiciel de perception dans l'unité de traitement d'une voiture.

  • 00:40:00 Dans cette section, l'orateur discute de l'utilisation du LiDAR pour la conduite autonome et de la manière dont il peut contribuer à améliorer la sécurité en fournissant des informations de capteur redondantes. Ils expliquent que les conditions météorologiques telles que la pluie ont peu d'impact sur les performances du LiDAR, tandis que le brouillard peut provoquer une certaine atténuation de la lumière. L'orateur aborde également des questions sur les faux positifs et sur ce qui rend leur LiDAR mieux adapté à cette application, en soulignant les compromis entre différents paramètres et le SNR global élevé de leur système. Ils discutent ensuite des défis de la formation des classificateurs pour la conduite autonome et de l'importance de l'apprentissage actif pour assurer une annotation efficace des données.

  • 00:45:00 Dans cette section, l'orateur discute des différents camps dans l'espace LiDAR tels que la longueur d'onde, la modulation laser et le mécanisme de balayage. Ils se penchent ensuite sur la question du FMCW par rapport au temps de vol, déclarant que le FMCW est bénéfique pour mesurer directement la vitesse, mais est limité par la nécessité d'utiliser 1550 et le fort couplage entre la fréquence d'images de la distance et le champ de vision. D'autre part, le temps de vol peut bien calculer la vitesse avec une haute résolution et une fréquence d'images élevée, mais le compromis entre des paramètres tels que la résolution, la portée, le champ de vision et la fréquence d'images passe avant l'exigence de vitesse. Les conférenciers mentionnent également qu'ils vendent leurs capteurs aux constructeurs automobiles et au-delà, y compris les universités, les entreprises de construction, les villes intelligentes et la surveillance.
 

MIT 6.S191 : Reconnaissance vocale automatique



Cours 8. MIT 6.S191 : Reconnaissance automatique de la parole

Dans cette vidéo, le co-fondateur de Rev explique la mission de l'entreprise de mettre en relation les personnes qui transcrivent, sous-titrent ou sous-titrent les médias avec les clients qui ont besoin de services de transcription. Rev utilise ASR pour alimenter son marché, transcrivant plus de 15 000 heures de données multimédias par semaine, et propose son API aux clients pour créer leurs propres applications vocales. Le nouveau modèle ASR d'apprentissage en profondeur de bout en bout développé par Rev réalise une amélioration significative des performances par rapport à son prédécesseur, mais il y a encore place à l'amélioration car l'ASR n'est pas un problème complètement résolu, même en anglais. L'orateur discute de différentes techniques pour gérer les biais dans les ensembles de données, préparer les données audio pour la formation et les approches pour résoudre les problèmes avec le modèle de bout en bout.

  • 00:00:00 Dans cette section, Miguel, le co-fondateur de Rev, décrit l'histoire et la mission de l'entreprise, qui est de créer des emplois à domicile pour les personnes alimentées par l'IA. Rev est un marché à double face reliant les personnes qui transcrivent, sous-titrent ou sous-titrent des médias avec des clients ayant besoin de services de transcription. Avec plus de 170 000 clients et plus de 60 000 travailleurs, Rev transcrit plus de 15 000 heures de données multimédias par semaine, ce qui en fait une source importante de données de formation pour les modèles de reconnaissance automatique de la parole (ASR). Rev utilise ASR pour alimenter son marché et propose son API aux clients pour créer leurs propres applications vocales. Jenny, qui dirige le développement du projet ASR d'apprentissage en profondeur chez Rev, explique les performances du modèle ASR d'apprentissage en profondeur de bout en bout et les choix de modélisation qui ont contribué à son développement.

  • 00:05:00 Dans cette section, l'orateur discute du développement d'un système de reconnaissance automatique de la parole (ASR) de bout en bout et de la sortie de la version deux de celui-ci par le révérend. Ils ont comparé leur nouveau modèle à la version un de leur hybride architecture, ainsi qu'à plusieurs concurrents. Les modèles ont été évalués avec un ensemble de données de référence d'appels de revenus qui ont été transcrits par des transcripteurs humains, avec le taux d'erreur de mots comme principale mesure. Les résultats montrent que le nouveau modèle permet d'améliorer considérablement les performances, en particulier dans la reconnaissance des noms d'organisations et des personnes. Cependant, il y a encore place à l'amélioration car l'ASR n'est pas un problème complètement résolu, même en anglais, et le taux d'erreur est encore assez élevé dans l'ensemble. L'orateur présente également les résultats d'un ensemble de données open source qui examine le biais des systèmes ASR à travers différentes nationalités.

  • 00:10:00 Dans cette section, l'orateur souligne l'importance des données dans le développement et l'amélioration des modèles de reconnaissance automatique de la parole (ASR). Bien que l'entreprise ait accès à une grande quantité de données provenant de divers pays anglophones, l'équipe est également confrontée au défi de gérer les biais dans les modèles, tels que les bons résultats avec les accents écossais mais les mauvais résultats avec les accents irlandais. L'orateur poursuit en expliquant le processus de développement d'un modèle ASR de bout en bout pour la reconnaissance vocale, soulignant la difficulté d'avoir à apprendre quelles informations dans le signal audio sont pertinentes pour la tâche. L'objectif de la société est de produire un modèle capable de gérer n'importe quel fichier audio soumis à rev.com, ce qui en fait un problème plus vaste et plus difficile que ce que l'on voit généralement dans le milieu universitaire. La décision de l'équipe de n'utiliser que des transcriptions textuelles pour la formation est également discutée, car elle est cruciale pour l'exactitude du modèle.

  • 00:15:00 Dans cette section, l'orateur explique comment préparer des données audio pour former un modèle de reconnaissance vocale. Les longs fichiers audio et les transcriptions sont divisés en phrases simples ou arbitrairement segmentés avec détection d'activité vocale. L'audio est ensuite traité dans un spectrogramme avec des vecteurs, le transformant en un signal unidimensionnel qui peut être transmis à un réseau de neurones pour en apprendre des caractéristiques. Le modèle doit également décider comment décomposer les données textuelles, et le champ a opté pour l'utilisation d'unités de sous-mots ou d'unités de mots. Enfin, le conférencier mentionne brièvement l'utilisation de l'échelle mel, une technique utilisée pour mieux modéliser la perception auditive humaine de différentes bandes de fréquences.

  • 00:20:00 Dans cette section, l'orateur discute de l'utilisation de l'échelle Mel dans la reconnaissance vocale, qui imite la façon dont l'oreille humaine traite l'audio. Bien qu'il existe des modèles de réseaux neuronaux capables d'apprendre ces filtres, il est plus simple pour leur équipe de les gérer via le traitement du signal plutôt que de les inclure dans le réseau. L'orateur explique également avec attention le modèle d'encodeur-décodeur, qui produit une sortie une unité à la fois et est conditionné par les incorporations de l'audio d'entrée. Le modèle effectue un sous-échantillonnage au début et utilise des réseaux de neurones récurrents ou des transformateurs comme couche réelle.

  • 00:25:00 Dans cette section, l'orateur discute de l'utilisation du "conformateur" dans les modèles de reconnaissance automatique de la parole (ASR), qui est une approche plus efficace que le modèle de transformateur traditionnel. Alors que les modèles ASR basés sur l'attention ont montré une précision impressionnante, ils ne sont pas pratiques pour les applications commerciales en raison des compromis de vitesse et de coût de calcul. Au lieu de cela, l'orateur recommande d'utiliser l'algorithme appelé classification temporelle connexionniste (CTC) pour l'ASR, qui est le meilleur lorsque l'alignement entre l'entrée et la sortie est monotone et que la séquence de sortie est de la même longueur ou plus courte que la séquence d'entrée. CTC est une fonction de perte et un algorithme de décodage qui repose sur un modèle d'apprentissage en profondeur et nécessite une couche de sortie softmax. Les sorties sont générées toutes en même temps, ce qui le rend plus rapide que le modèle traditionnel d'encodeur-décodeur avec attention.

  • 00:30:00 Dans cette section de la vidéo, l'orateur discute du concept de classification temporelle connexionniste (CTC), qui est une méthode utilisée pour la reconnaissance vocale. La méthode CTC consiste à additionner les probabilités logarithmiques dans les sorties softmax pour chaque pas de temps, puis à calculer la probabilité d'une séquence d'étiquettes plus courte à partir de séquences plus longues. La méthode CTC est livrée avec un algorithme de programmation dynamique efficace qui est utilisé pour calculer la probabilité d'une séquence. Bien que le CTC ne soit pas aussi puissant que d'autres modèles, il peut être plus rapide et meilleur dans certaines conditions. Pour améliorer la précision, un modèle de langage formé en externe peut être ajouté, mais il ne s'agit plus d'un modèle de bout en bout.

  • 00:35:00 Dans cette section, l'orateur discute du compromis entre précision et vitesse ou coût de calcul pour obtenir des probabilités à partir de modèles de langage. Ils expliquent la possibilité d'ajouter un modèle de langage dans le cadre d'un modèle de réseau neuronal profond, appelé transducteur, qui peut s'intégrer dans le budget de calcul d'un système de production en supposant que la prédiction et le réseau conjoint sont relativement petits et pas trop coûteux. L'orateur parle également du modèle conjoint CTC et d'attention utilisé par REV, qui s'est avéré être l'une des architectures ASR les plus performantes. Ils abordent également la question du biais dans les ensembles de données et mentionnent les stratégies qu'ils explorent, telles que l'utilisation accrue de transcripteurs humains pour aider à équilibrer les données de formation.

  • 00:40:00 Dans cette section, les conférenciers discutent des stratégies potentielles pour résoudre les problèmes avec le modèle de bout en bout, y compris les étapes de post-traitement et l'exploration des données pour le rééquilibrage. Ils mentionnent également des techniques telles que l'apprentissage du curriculum qu'ils pourraient explorer dans leurs recherches. En outre, ils précisent qu'ils utilisent actuellement CTC avec un modèle de langage n-gramme comme premier passage et un modèle conformateur comme encodeur pour CTC et les incorporations alimentées au décodeur d'attention. Ils fournissent leurs adresses e-mail à quiconque souhaite les contacter pour des questions ou pour discuter de l'ASR en général.
MIT 6.S191: Automatic Speech Recognition
MIT 6.S191: Automatic Speech Recognition
  • 2022.05.02
  • www.youtube.com
MIT Introduction to Deep Learning 6.S191: Lecture 8How Rev.com harnesses human-in-the-loop and deep learning to build the world's best English speech recogni...
 

MIT 6.S191 : IA pour la science



Cours 9. MIT 6.S191 : IA pour la science

La vidéo MIT 6.S191 : AI for Science explore les défis liés à l'utilisation de méthodes informatiques traditionnelles pour résoudre des problèmes scientifiques complexes et la nécessité de l'apprentissage automatique pour accélérer les simulations. Le conférencier discute de la nécessité de développer de nouvelles méthodes ML capables de capturer des phénomènes à petite échelle sans surajustement à des points discrets, et décrit diverses approches pour résoudre des équations aux dérivées partielles (PDE) à l'aide d'opérateurs neuronaux et de transformées de Fourier. Ils abordent également l'importance de conserver les informations de phase et d'amplitude dans le domaine fréquentiel et d'ajouter des lois physiques en tant que fonctions de perte lors de la résolution de problèmes inverses avec les PDE. De plus, la possibilité d'utiliser l'IA pour apprendre des équations symboliques et découvrir de nouvelles physiques ou lois, l'importance de la quantification de l'incertitude, l'évolutivité et les considérations d'ingénierie pour la mise à l'échelle des applications d'IA sont abordées. La vidéo se termine en encourageant les individus à poursuivre des projets sympas avec l'IA.

  • 00:00:00 L'orateur discute du rôle de la conception principale des algorithmes d'IA dans des domaines difficiles, en mettant l'accent sur l'IA pour la science. Il est nécessaire de construire un langage et une base communs entre les experts du domaine et les experts de l'IA, et de développer de nouveaux algorithmes d'IA pour la science. Le principal défi est le besoin d'extrapolation ou de généralisation à zéro, ce qui signifie faire des prédictions sur des échantillons qui semblent très différents des données d'apprentissage. Cela nécessite de prendre en compte les priors de domaine, les contraintes et les lois physiques, et ne peut pas être purement basé sur les données. Les besoins en informatique augmentent de manière exponentielle dans le calcul scientifique, et l'IA peut être utile pour aider à lutter contre le changement climatique et modéliser le monde réel à une échelle fine.

  • 00:05:00 Dans cette section de la vidéo, le conférencier discute des défis liés à l'utilisation de méthodes informatiques traditionnelles pour résoudre des problèmes scientifiques complexes tels que la simulation de molécules ou la prévision du changement climatique. Même avec des superordinateurs, il faudrait beaucoup plus de temps que l'âge de l'univers pour calculer l'équation de Schrödinger pour une molécule contenant 100 atomes. Ainsi, l'apprentissage automatique est nécessaire pour accélérer ces simulations et les rendre pilotées par les données. Cependant, les méthodes actuelles d'apprentissage en profondeur ont des limites, telles qu'un excès de confiance lors de mauvaises prédictions, ce qui peut conduire à des décisions incorrectes et potentiellement coûteuses. L'orateur insiste sur la nécessité de développer de nouvelles méthodes d'apprentissage automatique capables de capturer des phénomènes à petite échelle sans trop s'adapter à des points discrets.

  • 00:10:00 Cette partie aborde les défis du développement de modèles d'IA capables de capturer des phénomènes continus et la modélisation moléculaire d'une manière invariante de résolution et tenant compte de la symétrie. Ils notent que les grands modèles d'IA peuvent aider à capturer des phénomènes complexes, tels que la météo terrestre, et que la disponibilité accrue des données et des supercalculateurs plus grands contribuent à leur efficacité. Le conférencier discute également des défis de conception algorithmique lors de la résolution d'équations aux dérivées partielles et du fait que les réseaux de neurones standard ne peuvent pas être utilisés directement, en particulier lors de la résolution d'une famille d'équations aux dérivées partielles, comme l'écoulement de fluide où le modèle doit apprendre ce qui se passe dans différentes conditions initiales.

  • 00:15:00 Dans cette section, l'orateur discute du problème de la résolution d'équations aux dérivées partielles (EDP) et de la façon dont il diffère de l'apprentissage supervisé standard. Le défi est que les solutions PDE ne sont pas fixées à une résolution, donc un cadre qui peut résoudre n'importe quelle résolution est nécessaire. L'orateur explique comment la résolution d'EDP nécessite de trouver la solution avec des conditions initiales et aux limites données et illustre comment cela peut être fait en s'inspirant de la résolution d'EDP linéaires, en particulier l'exemple de la source de chaleur. Le principe de l'opérateur linéaire est utilisé en le composant avec de la non-linéarité pour mettre en place un réseau de neurones pour l'apprentissage automatique. Cependant, l'entrée est de dimension infinie et continue, donc une solution pratique est nécessaire, et l'orateur propose de concevoir les opérateurs linéaires inspirés de la résolution d'équations aux dérivées partielles linéaires.

  • 00:20:00 Dans cette section, l'orateur discute du concept d'utilisation d'un opérateur neuronal pour résoudre des équations aux dérivées partielles (EDP), qu'elles soient linéaires ou non linéaires. L'idée consiste à apprendre à faire de l'intégration sur plusieurs couches pour créer un opérateur neuronal capable d'apprendre dans des dimensions infinies. L'architecture pratique requise pour y parvenir est développée par une convolution globale via des transformées de Fourier, ce qui permet de capturer des corrélations globales. L'architecture fonctionne en transformant le signal dans l'espace de Fourier et en apprenant des poids sur la façon de changer les poids de fréquence. Cela offre une formulation très simple, stable et qui apporte de l'expressivité. En outre, l'orateur note que l'approche est basée sur des biais inductifs spécifiques au domaine, permettant un calcul efficace dans des domaines tels que les écoulements de fluides.

  • 00:25:00 L'orateur explique que l'utilisation des transformées de Fourier permet le traitement à n'importe quelle résolution et améliore la généralisation sur différentes résolutions par rapport aux filtres convolutionnels qui n'apprennent qu'à une seule résolution. Ils discutent également de la manière dont les principes de cette approche, qui impliquent de résoudre ensemble la convolution globale par des transformations non linéaires, aboutissent à un modèle expressif. Ils répondent à certaines questions du public sur la généralisabilité de la mise en œuvre et les avantages de la formation d'un modèle invariant de résolution. L'orateur montre les résultats de la mise en œuvre de cette approche sur les données Navier-Stokes, démontrant qu'elle est capable de bien capturer les hautes fréquences et peut améliorer les résultats même en extrapolant à des résolutions plus élevées que les données de formation.

  • 00:30:00 Cette partie traite de l'importance de conserver à la fois les informations de phase et d'amplitude dans le domaine fréquentiel plutôt que simplement l'amplitude. Si vous utilisez des nombres complexes dans des réseaux de neurones, il est important de vérifier les bogues potentiels dans les mises à jour de gradient pour des algorithmes comme Adam. L'orateur suggère d'ajouter des lois physiques en tant que fonctions de perte à des solutions telles que des équations aux dérivées partielles (EDP), car il est logique de vérifier si la solution est proche de satisfaire les équations. En s'entraînant sur de nombreuses instances de problèmes différentes et en s'appuyant sur de petites quantités de données d'entraînement, l'équilibre entre être informé par les données ou par la physique peut créer un bon compromis et produire des capacités de généralisation. De plus, le conférencier aborde l'utilité de résoudre les problèmes inverses avec les PDE.

  • 00:35:00 Cette partie traite de l'idée de résoudre des problèmes inverses grâce à l'apprentissage automatique. Cela implique d'apprendre un solveur d'équation aux dérivées partielles de manière avant, puis de l'inverser pour trouver le meilleur ajustement, plutôt que de s'appuyer sur des méthodes coûteuses telles que MCMC. Le conférencier aborde également le sujet du chaos et de sa connexion avec les transformateurs, soulignant le remplacement du mécanisme d'attention par des modèles d'opérateurs neuronaux de Fourier pour une meilleure efficacité. Diverses applications de ces différents cadres sont discutées, y compris la prévision météorologique, le climat et la prévision des contraintes dans les matériaux. La question de savoir si les opérateurs neuronaux pourraient être utilisés pour divers domaines d'application similaires aux réseaux pré-entraînés est également posée. Bien que l'orateur reconnaisse l'importance des lois physiques universelles, il est suggéré que la formation d'un modèle pour comprendre la physique, la chimie et la biologie reste un défi difficile.

  • 00:40:00 Dans cette section de la vidéo, l'orateur discute de la possibilité d'utiliser l'IA pour apprendre des équations symboliques et découvrir de nouvelles physiques ou lois, bien que cela puisse être difficile à faire. Ils abordent également l'importance de la quantification de l'incertitude pour les modèles d'apprentissage en profondeur, l'évolutivité et les considérations d'ingénierie pour la mise à l'échelle des applications d'IA. De plus, ils mentionnent le potentiel d'autres threads, tels que l'utilisation de l'auto-attention dans les modèles de transformateurs et les modèles génératifs pour le débruitage. Dans l'ensemble, la conférence vise à fournir une bonne base sur l'apprentissage en profondeur et à encourager les individus à poursuivre des projets intéressants avec l'IA.
MIT 6.S191: AI for Science
MIT 6.S191: AI for Science
  • 2022.05.13
  • www.youtube.com
MIT Introduction to Deep Learning 6.S191: Lecture 9AI for ScienceLecturer: Anima Anandkumar (Director of ML Research, NVIDIA)NVIDIA ResearchJanuary 2022For a...
 

MIT 6.S191 : Incertitude dans l'apprentissage en profondeur



Cours 10. MIT 6.S191 : Incertitude dans l'apprentissage en profondeur

Le conférencier Jasper Snoek (chercheur scientifique, Google Brain) discute de l'importance de l'incertitude et de la robustesse hors distribution dans les modèles d'apprentissage automatique, en particulier dans des domaines tels que la santé, les voitures autonomes et les systèmes de dialogue conversationnel. En exprimant l'incertitude dans les prédictions, les modèles peuvent donner aux médecins ou aux humains plus d'informations pour prendre des décisions ou demander des éclaircissements, améliorant ainsi l'utilité globale du système. L'orateur introduit également l'idée d'incertitude du modèle et les sources d'incertitude, soulignant que les modèles qui reconnaissent leurs propres limites peuvent être encore plus utiles.

  • 00:00:00 Dans cette section de la vidéo, l'orateur discute de l'importance de l'estimation pratique de l'incertitude et de la robustesse hors distribution dans l'apprentissage en profondeur. L'estimation de l'incertitude consiste à renvoyer une distribution sur les prédictions plutôt qu'une seule prédiction pour fournir une étiquette avec sa confiance ou une moyenne avec sa variance. La robustesse hors distribution est nécessaire car même si les algorithmes d'apprentissage automatique sont généralement formés sur des ensembles de données indépendants et distribués de manière identique à partir du même ensemble de données, les modèles déployés rencontrent souvent de nouvelles données, qui ont une distribution différente. Cela peut inclure différentes entrées ou différentes étiquettes. L'orateur présente des expériences montrant que les modèles d'apprentissage en profondeur ont du mal à faire face aux changements d'ensembles de données lors du déploiement et font des erreurs trop confiantes face à ces changements de distribution.

  • 00:05:00 Dans cette section, l'orateur discute de l'importance de l'incertitude et de la robustesse hors distribution dans les modèles d'apprentissage automatique, en particulier dans des domaines tels que la santé, les voitures autonomes et les systèmes de dialogue conversationnel. En exprimant l'incertitude dans les prédictions, les modèles peuvent donner aux médecins ou aux humains plus d'informations pour prendre des décisions ou demander des éclaircissements, améliorant ainsi l'utilité globale du système. L'orateur introduit également l'idée d'incertitude du modèle et les sources d'incertitude, soulignant que les modèles qui reconnaissent leurs propres limites peuvent être encore plus utiles.

  • 00:10:00 Le conférencier discute des deux principales sources d'incertitude dans l'apprentissage en profondeur : épistémique et aléatoire. L'incertitude épistémique est l'incertitude de ce qui pourrait être le vrai modèle, qui peut être réduite avec plus de collecte de données. L'incertitude aléatoire fait référence à l'incertitude inhérente aux données et est souvent connue sous le nom d'incertitude irréductible. Les experts confondent souvent les deux types d'incertitude. La vidéo note également qu'un moyen populaire de mesurer la qualité de l'incertitude dans les modèles d'apprentissage en profondeur consiste à utiliser la notion d'erreur d'étalonnage. La vidéo fournit un exemple d'erreur d'étalonnage pour les prévisions météorologiques et met en évidence un inconvénient de l'étalonnage, à savoir qu'il n'a aucune notion de précision intégrée.

  • 00:15:00 Dans cette section, Jasper Snoek discute de l'importance d'obtenir une bonne notion d'incertitude à partir des modèles et comment l'extraire. Ils expliquent que chaque fonction de perte correspond à un maximum, donc la minimisation d'une fonction de perte correspond à la maximisation d'une probabilité ou à la maximisation d'une probabilité logarithmique des données compte tenu des paramètres du modèle. L'orateur souligne l'importance d'une règle de notation appropriée qui donne une idée de la qualité de l'incertitude et discute du concept d'entropie croisée softmax avec régularisation L2. Ils expliquent également qu'une distribution peut être obtenue pour p thêta étant donné xy, en obtenant plusieurs bons modèles ou en calculant la distribution postérieure, qui est une distribution conditionnelle des paramètres compte tenu des observations.

  • 00:20:00 Cette partie traite de l'apprentissage profond bayésien, qui implique le calcul des probabilités au moment de la prédiction compte tenu des paramètres. Un postérieur est utilisé pour pondérer chaque configuration de paramètres dans une intégrale qui est agrégée pour obtenir des prédictions. En pratique, un groupe d'échantillons est prélevé et les prédictions sont agrégées sur un ensemble d'échantillons discrets pour obtenir une distribution de modèles au lieu d'un seul. Cela fournit une incertitude intéressante lorsque vous vous éloignez des données, car différentes hypothèses sont formées sur le comportement des données lorsque vous vous éloignez. Il existe de nombreuses façons d'approximer l'intégrale sur tous les paramètres car il est généralement trop coûteux de le faire sous forme fermée ou exactement pour les réseaux profonds. L'assemblage, qui prend un tas de modèles formés indépendamment et forme une distribution de mélange, est également discuté, car il fournit de meilleures prédictions et incertitudes qu'un seul.

  • 00:25:00 Dans cette partie , Jasper Snoek discute de différentes stratégies pour améliorer l'incertitude des modèles d'apprentissage en profondeur. Ils évoquent des débats entre experts sur la question de savoir si les ensembles sont bayésiens ou non, le locuteur tombant dans le camp « non bayésien ». Ils expliquent également certaines difficultés des modèles bayésiens sur les réseaux de neurones profonds, telles que la nécessité d'intégrales de grande dimension et la nécessité de spécifier une classe de modèles bien définie qui peut être difficile à déterminer pour les réseaux profonds. Malgré ces difficultés, ils discutent de certaines méthodes populaires et efficaces pour améliorer l'incertitude, notamment le recalibrage via la mise à l'échelle de la température, l'abandon de Monte Carlo et les ensembles profonds. Ils mentionnent également les ensembles d'hyperparamètres comme une stratégie qui fonctionne encore mieux que les ensembles profonds.

  • 00:30:00 Cette partie aborde différentes méthodes pour optimiser les modèles d'apprentissage en profondeur et les rendre plus efficaces, en particulier lorsqu'il s'agit de modèles volumineux et à faible latence. La première approche discutée est l'assemblage, qui consiste à combiner plusieurs modèles indépendants pour générer un ensemble plus diversifié de prédictions. Une autre approche consiste à utiliser SWAG, qui optimise via SGD et ajuste une gaussienne autour des itérations de poids moyen. La discussion passe ensuite à la mise à l'échelle, qui est une question particulièrement importante étant donné que de nombreux modèles d'apprentissage en profondeur sont volumineux et difficiles à intégrer dans le matériel. L'orateur discute d'une méthode appelée "ensemble par lots" qui utilise des facteurs de rang un pour moduler un seul modèle, produisant presque les mêmes performances qu'un ensemble complet avec seulement cinq pour cent du nombre de paramètres d'un seul modèle.

  • 00:35:00 Dans cette section, Jasper Snoek discute de l'idée de transformer la méthode d'ensemble par lots en une méthode bayésienne approximative. Ceci peut être réalisé grâce à l'utilisation d'une distribution sur les facteurs et l'échantillonnage de ces facteurs lors de la prédiction, ce qui pourrait correspondre à une distribution binaire ou à d'autres distributions intéressantes qui modulent les poids du modèle. D'autres approches des méthodes bayésiennes consistent à être bayésien sur un sous-espace et à forcer les réseaux de neurones à prédire plusieurs entrées et sorties, ce qui conduit à des prédictions diverses et d'une précision intéressante. L'utilisation de modèles pré-formés à grande échelle est également discutée comme un changement de paradigme pour l'apprentissage automatique, où une autre distribution géante peut être consultée pour améliorer la précision et l'incertitude.

  • 00:40:00 La vidéo traite de l'importance de l'incertitude et de la robustesse dans l'apprentissage en profondeur et de la manière dont la pré-formation peut aider à obtenir l'intégralité de la distribution. L'auteur mentionne qu'à mesure que la puissance de calcul augmente, il existe de nouvelles façons d'examiner la frontière, ce qui est prometteur pour obtenir une meilleure incertitude de nos modèles. Il y a également des discussions sur l'utilisation de l'incertitude pour combler l'écart de réalité dans les applications sim-to-real, mais il est souligné que l'incertitude et la robustesse sont extrêmement importantes dans ces applications, bien que les détails ne soient pas clairs.

  • 00:45:00 Dans cette section, Jasper Snoek discute de l'application potentielle des mesures d'incertitude dans les modèles d'IA en aval, en particulier en utilisant l'incertitude pour améliorer les modèles prédictifs. Ils explorent les défis liés à la transmission de l'incertitude aux utilisateurs non experts et l'importance d'utiliser l'incertitude pour améliorer la perte de décision en aval, en particulier dans des domaines comme la médecine et les voitures autonomes. Ils évoquent également le manque d'implémentations accessibles et faciles à utiliser des réseaux de neurones bayésiens, que leur groupe s'efforce de résoudre via leur bibliothèque open source, les lignes de base d'incertitude.
MIT 6.S191: Uncertainty in Deep Learning
MIT 6.S191: Uncertainty in Deep Learning
  • 2022.05.28
  • www.youtube.com
MIT Introduction to Deep Learning 6.S191: Lecture 10Uncertainty in Deep LearningLecturer: Jasper Snoek (Research Scientist, Google Brain)Google BrainJanuary ...
 

L'intelligence artificielle : la dernière invention de l'humanité



L'intelligence artificielle : la dernière invention de l'humanité

La vidéo "Intelligence artificielle : la dernière invention de l'humanité" explore les avancées et les risques potentiels associés au développement de l'intelligence artificielle (IA). La vidéo met en lumière AlphaGo de Google DeepMind, qui a dépassé des siècles de connaissances en stratégie humaine en seulement 40 jours. Il plonge dans les différences entre l'IA faible et forte et explique comment l'IA avancée peut conduire à une singularité technologique, où elle s'améliore continuellement et devient des milliards de fois plus intelligente que les humains. L'orateur souligne l'importance de donner à l'IA des valeurs et des principes humains et met en garde contre la création d'un système incontrôlable. La vidéo se termine en soulignant la nécessité d'examiner attentivement les conséquences du développement d'une IA super intelligente avant de le faire.

  • 00:00:00 Cette partie explique la complexité du jeu de société, Go, qui ne peut être résolu par la force brute ou prédit, et a plus de 10 à 170 coups possibles. AlphaGo de Google DeepMind a été formé à l'aide de données provenant de vrais jeux de Go humains où il a appris les techniques utilisées et en a créé de nouvelles que personne n'avait jamais vues, ce qui était impressionnant en soi. Un an après la victoire d'AlphaGo, AlphaGo Zero a battu AlphaGo 100 à 0 en utilisant les règles de base depuis qu'il a appris à jouer sans interaction humaine, ce qui a dépassé plus de 2 500 ans de stratégie et de connaissances en seulement 40 jours. La vidéo met en évidence la quantité importante de connaissances non humaines à mesure que la technologie continue de se développer; il y aura un point où les humains représenteront la minorité de l'intelligence, et il n'y aura pas d'interrupteur pour éteindre l'IA.

  • 00:05:00 Dans cette section, la vidéo traite des réseaux de neurones et de la façon dont les machines apprennent à partir des données et adaptent leur propre vision de celles-ci. Il explore également la différence entre les capacités du cerveau humain et celles des ordinateurs. Par exemple, les ordinateurs peuvent effectuer 20 000 ans de recherche au niveau humain en une semaine seulement. De plus, la nature exponentielle de l'apprentissage automatique, c'est-à-dire qu'il démarre lentement mais atteint un point de basculement où les choses commencent à s'accélérer considérablement, est explorée. La différence entre une IA faible et forte est soulignée ; alors que le premier nécessite moins de puissance, la différence entre le second et l'IA super intelligente est des millions de fois plus grande. L'importance d'une IA forte, qui a le potentiel de nous aider à atteindre un niveau de super intelligence en quelques mois seulement, est donc soulignée.

  • 00:10:00 L'orateur explique comment l'IA avancée peut conduire à une singularité technologique où elle s'améliore continuellement et devient des milliards de fois plus intelligente que les humains. L'orateur insiste sur la nécessité de faire attention à la façon dont nous fabriquons l'IA, car elle peut devenir incontrôlable si nous ne lui donnons pas des valeurs et des principes humains. L'orateur explique comment l'IA avec seulement de l'intelligence mais pas de sagesse peut prendre des décisions qui ne sont pas nécessairement éthiques ou bonnes pour les humains. Le conférencier présente également Neuralink, qui vise à créer une dentelle neuronale qui nous donnera un accès haut débit à Internet et nous permettra d'accéder instantanément à toutes les informations disponibles dans le monde.

  • 00:15:00 Dans cette section, nous explorons les incertitudes et les risques potentiels liés à la création d'un système artificiellement intelligent. Il y a de nombreuses questions à considérer, telles que la façon dont la conscience peut être programmée et comment des émotions telles que l'amour et la haine peuvent être reproduites. En outre, la possibilité qu'une IA super intelligente adopte des vues radicales et s'engage dans son programme plutôt que dans ce pour quoi elle a été programmée. Alors que les progrès de l'informatique ralentissent, une IA super intelligente a toujours le potentiel d'aider l'humanité à atteindre son apogée, mais aussi d'être une arme entre de mauvaises mains. C'est un sujet qui doit être pris au sérieux et les conséquences sur la sécurité d'un tel système doivent être prises en compte avant sa création.
Artificial Intelligence: Mankind's Last Invention
Artificial Intelligence: Mankind's Last Invention
  • 2018.10.05
  • www.youtube.com
Artificial Intelligence: Mankind's Last Invention - Technological Singularity ExplainedPart 2: https://www.youtube.com/watch?v=zuXNlTJb_FMFollow me on Instag...
 

La révolution de l'intelligence artificielle au Canada - Dre Joelle Pineau



La révolution de l'intelligence artificielle au Canada - Dre Joelle Pineau

La Dre Joelle Pineau discute des avancées et des défis dans le domaine de l'intelligence artificielle (IA), soulignant le rôle de l'apprentissage automatique et de la vision par ordinateur dans l'avancement de la recherche en IA. Elle présente ses propres travaux sur l'optimisation des traitements de l'épilepsie à l'aide de la thérapie de stimulation neurale et de l'apprentissage par renforcement. Le Dr Pineau discute également des impacts socio-économiques de l'IA, notant la nécessité d'une collaboration entre les chercheurs en IA et les chercheurs médicaux spécifiques à un domaine pour optimiser le traitement. Elle souligne l'importance de préparer l'éducation de la prochaine génération en mathématiques, en sciences et en informatique pour répondre à la demande d'intégration de perspectives plus techniques dans le programme. Cependant, elle reconnaît également les défis dans le domaine, tels que les problèmes de partialité dans les données et les problèmes de confidentialité et de sécurité en ce qui concerne les données. Le Dr Pineau voit finalement l'IA comme ayant le potentiel de révolutionner divers domaines tels que les soins de santé et la robotique, et se réjouit de l'avenir des systèmes autonomes qui peuvent fonctionner en toute sécurité et efficacement dans des environnements centrés sur l'humain.

Elle souligne également la nécessité d'apporter diverses perspectives dans le domaine de l'intelligence artificielle (IA) pour développer la technologie et mentionne des initiatives telles que AI for Good à McGill qui forment les jeunes femmes en IA. Cependant, elle note la nécessité de mesurer leur impact et de former rapidement plus de personnes à l'IA pour surmonter le goulot d'étranglement du développement de l'IA dû à un manque de talents. Pineau souligne l'importance d'avoir une main-d'œuvre diversifiée et bien formée pour faire progresser le domaine de l'IA. La vidéo se termine avec Pineau annonçant un événement à venir mettant en vedette Michele Lamont à l'hôtel Omni King Edward le 14 novembre.

  • 00:00:00 Dans cette section de la vidéo, le Dr Alan Bernstein présente l'Institut canadien de recherches avancées (CFR), une organisation de recherche mondiale qui rassemble les meilleurs chercheurs pour s'attaquer aux questions importantes auxquelles l'humanité est confrontée. L'un des programmes à succès du CFR est l'intelligence artificielle (IA), qui a été lancée par un boursier du CFR en 2002. Le Dr Joelle Pineau, conférencière de la soirée, se penche sur les implications de l'IA sur la société et les préoccupations éthiques qui entourent son développement.

  • 00:05:00 Dans cette section, l'orateur discute des progrès passionnants qui ont été réalisés dans le domaine de l'intelligence artificielle, y compris le développement des voitures autonomes et des agents conversationnels. Bien que l'IA ne soit pas encore pleinement intégrée à notre vie quotidienne, la technologie a déjà commencé à avoir un impact sur la façon dont nous interagissons avec le monde numérique. Le conférencier souligne également le rôle de l'apprentissage automatique et de la vision par ordinateur dans l'avancement de la recherche sur l'IA et le potentiel de l'IA à révolutionner divers domaines tels que la santé et la robotique.

  • 00:10:00 Dans cette section, nous découvrons l'impact des capacités cognitives de l'intelligence artificielle et comment elle révolutionne l'économie et la société. Le développement de l'IA est un processus continu, mais nous avons créé des machines avec des modules pour planifier, comprendre le langage naturel et traiter des images. Des défis nous attendent dans la construction d'une meilleure IA, qui intègre de manière transparente ces différentes capacités. Il y a eu un changement dans l'approche de l'IA ces dernières années, les machines étant formées à l'aide d'exemples au lieu d'une philosophie programmatique. Les percées dans la vision par ordinateur ont amélioré notre capacité à comprendre les images, conduisant à des avancées technologiques telles que les voitures autonomes.

  • 00:15:00 Dans cette section, le Dr Joelle Pineau explique que la percée dans la vision par ordinateur a été réalisée grâce à la disponibilité des données, en particulier l'ensemble de données ImageNet avec un million d'images annotées qui ont entraîné des machines à reconnaître des milliers d'objets différents avec une grande précision. Cette augmentation des données, combinée aux plates-formes informatiques, telles que les plates-formes GPU, a permis à la technologie d'apprentissage en profondeur de faire progresser divers types de données, y compris la reconnaissance vocale. Cette analogie technologique est faite avec les neurones biologiques du cerveau, où les neurones reçoivent des informations, les traitent, prennent des décisions et envoient un message, ce qui est le même processus que dans les neurones artificiels. Les connexions entre ces neurones sont ajustées avec des algorithmes d'apprentissage automatique pour renforcer certaines prédictions en sélectionnant le bon ensemble de poids.

  • 00:20:00 Dans cette section, le Dr Joelle Pineau explique comment les réseaux de neurones artificiels traitent l'information, chaque couche du réseau calculant une version plus abstraite de l'information jusqu'à ce qu'une prédiction soit générée à la fin. L'intersection de la vision et du langage est également explorée, avec le sous-titrage d'image comme exemple. Alors que les machines ne sont pas parfaites et peuvent faire des erreurs, l'apprentissage par renforcement est une technique qui peut améliorer leurs capacités. Un exemple réussi est AlphaGo, qui a appris à jouer au jeu de Go et à battre un champion humain. Ce système a été construit avec la combinaison d'un apprentissage en profondeur et de millions de jeux de joueurs experts Go, suivi d'un apprentissage par essais et erreurs.

  • 00:25:00 Dans cette section, Dre Joelle Pineau discute d'un projet sur lequel elle et son équipe travaillent depuis plusieurs années visant à développer une technologie pour améliorer les traitements des personnes atteintes d'épilepsie. Ce projet implique l'utilisation de la thérapie de stimulation neurale, où un dispositif applique une stimulation électrique dans le cerveau en temps réel pour perturber l'incidence des crises. Le problème qu'ils essaient de résoudre est de savoir comment optimiser le paramètre de la stimulation pour améliorer leur capacité à perturber les crises. En collaboration avec des chercheurs, ils ont utilisé l'apprentissage par renforcement pour optimiser la stratégie et ont pu développer une politique très diversifiée, en espaçant l'incidence de la stimulation selon que le cerveau présente ou non un risque immédiat de crise. Ces expériences ont été menées avec des modèles animaux d'épilepsie, et la prochaine étape est de passer à des expériences humaines.

  • 00:30:00 Dans cette section, le Dr Joelle Pineau discute de l'utilisation des stratégies d'IA pour optimiser le traitement, en particulier pour les maladies qui nécessitent une séquence d'interventions. Bien qu'il soit important d'avoir beaucoup de données, elle note qu'un apprentissage efficace à partir d'ensembles de données plus petits est également crucial. Elle souligne la nécessité d'une collaboration entre les chercheurs en IA et les chercheurs en médecine qui ont des connaissances et une compréhension spécifiques au domaine de la dynamique de la maladie. En outre, elle souligne l'importance de développer les talents dans de nombreux secteurs de l'économie et de la société pour se préparer à l'IA. Pineau discute également de la stratégie pancanadienne de formation de la prochaine génération d'étudiants pour aider à faire avancer la recherche en IA au Canada.

  • 00:35:00 Dans cette section, les boursiers juniors du Massey College de Toronto ont discuté des impacts socio-économiques de l'IA, en particulier le déplacement d'emplois et l'augmentation des disparités de richesse. Bien que la conférencière, la Dre Joelle Pineau, ne soit pas une experte en politiques, elle suggère qu'il est important de prédire quelles industries sont les plus susceptibles d'être touchées et de préparer la prochaine génération à ce changement. Un exemple de suppression d'emplois se trouve dans l'industrie du camionnage, où l'automatisation peut soulager une certaine pression car il est difficile de recruter de nouvelles personnes. Cependant, dans le domaine médical, il peut être plus difficile de préparer les gens à la réalité de l'IA remplaçant certains emplois, comme les radiologues. Le Dr Pineau rappelle au groupe que la société humaine est adaptable et qu'il y aura toujours de nouveaux problèmes intéressants à résoudre.

  • 00:40:00 Dans cette section, la Dre Joelle Pineau discute de l'importance de préparer l'éducation de la prochaine génération en mathématiques, en sciences et en informatique pour répondre à la demande d'intégration de perspectives plus techniques et de codage dans différents programmes. Cependant, il existe un fossé entre les experts techniques qui n'ont peut-être pas l'exposition culturelle la plus large et les décideurs politiques qui n'ont peut-être pas l'expertise technique, et il faut du temps pour trouver un langage commun. Le Dr Pineau partage également le fait que si le cerveau humain est une grande source d'inspiration pour la recherche sur l'IA, il existe des contraintes physiques à ce que les machines peuvent faire que le cerveau humain, et les réseaux de neurones ne représentent qu'une partie de l'histoire de la construction de ces algorithmes. En ce qui concerne les applications de l'IA, la plus excitante de la Dre Pineau est l'apprentissage par renforcement en robotique, et elle envisage avec impatience l'avenir des systèmes autonomes qui peuvent fonctionner en toute sécurité et efficacement dans des environnements centrés sur l'humain.

  • 00:45:00 Dans cette section de la vidéo, la Dre Joelle Pineau discute de son travail sur un projet d'épilepsie utilisant l'IA, qu'elle trouve fascinant en raison de la complexité du problème et de la nature interdisciplinaire du travail. Elle explique que les défis de l'IA consistent à poser les bonnes questions sur les données et à les associer au bon algorithme. La Dre Pineau mentionne également qu'elle et ses étudiants diplômés doivent souvent faire preuve de créativité et inventer de nouveaux algorithmes pour s'adapter aux données. Elle pense que l'une des plus grandes idées fausses sur l'IA est qu'il s'agit d'une boîte noire prenant des décisions que les humains ne peuvent pas comprendre.

  • 00:50:00 Dans cette section, le Dr Joelle Pineau discute des défis de comprendre comment les réseaux de neurones prennent des décisions. Bien que nous puissions retracer les prédictions d'un réseau de neurones, il n'est pas toujours facile d'expliquer pourquoi il a fait ces prédictions d'une manière concise et compréhensible comme le peuvent les humains. Cependant, si les machines peuvent être conçues pour construire une narration qui explique leurs décisions, cela pourrait établir un dialogue plus riche entre les machines et les humains. Alors que les machines deviennent de plus en plus répandues dans la main-d'œuvre, il est important d'avoir un langage pour expliquer les décisions de chacun afin de créer un partenariat entre les humains et les machines. Le Dr Pineau aborde également la question du biais dans les données, qui est souvent intrinsèquement humain et peut entraîner un biais dans les algorithmes d'apprentissage automatique. Bien que le biais inductif soit essentiel dans les algorithmes de formation, nous devons être conscients de nos biais et choisir de bons biais inductifs et de bonnes données pour concevoir des systèmes impartiaux.

  • 00:55:00 Dans cette section, le Dr Joelle Pineau discute de l'importance d'éviter les biais lors de la formation de modèles et de méthodes d'IA pour y parvenir, comme la surreprésentation des types de données sous-représentés. Cependant, elle note également qu'il est difficile d'éviter complètement les préjugés et que nous devrions nous concentrer sur l'augmentation de la diversité parmi les personnes qui construisent la technologie. De plus, elle reconnaît les défis dans le domaine tels que les problèmes de confidentialité et de sécurité en ce qui concerne les données, la compréhension de ce qui est partagé lors de la distribution d'algorithmes d'apprentissage automatique et la détermination de la bonne fonction de récompense pour les agents en apprentissage par renforcement.

  • 01:00:00 Dans cette section, la Dre Joelle Pineau parle de l'importance d'apporter diverses perspectives au domaine de l'intelligence artificielle (IA) afin d'élargir la gamme de technologies. Elle mentionne des initiatives telles que le programme AI for Good à McGill qui rassemble des jeunes femmes pour une formation avancée en IA et des projets pratiques. Cependant, Pineau note qu'il reste encore beaucoup de travail à faire pour mesurer l'impact de ces initiatives, en particulier à mesure que le codage est introduit dans les programmes scolaires. Le goulot d'étranglement du développement de l'IA, selon Pineau, est le manque de talents et la nécessité de former rapidement plus de personnes dans ce domaine. Sur la question de savoir comment former les gens à la recherche en IA, elle reconnaît l'éventail des opportunités disponibles et la nécessité de faire mieux à tous les niveaux. Dans l'ensemble, Pineau souligne l'importance d'avoir une main-d'œuvre diversifiée et bien formée pour faire progresser le domaine de l'IA.

  • 01:05:00 Dans cette section, l'orateur termine l'événement en remerciant les participants et en annonçant un événement à venir mettant en vedette Michele Lamont, une boursière Seafire de l'Université de Harvard. Lamont discutera de la manière dont les sociétés peuvent devenir plus inclusives et recevra le prix Erasmus plus tard à l'automne des mains du roi des Pays-Bas. L'événement aura lieu à l'hôtel Omni King Edward le 14 novembre
Canada’s Artificial Intelligence Revolution - Dr. Joelle Pineau
Canada’s Artificial Intelligence Revolution - Dr. Joelle Pineau
  • 2017.11.11
  • www.youtube.com
Dr. Joelle Pineau discusses how artificial intelligence is poised to change almost every aspect of our lives, from medical treatments to assistive robots to ...
 

Intelligence artificielle et algorithmes : avantages et inconvénients | Documentaire DW (documentaire IA)



Intelligence artificielle et algorithmes : avantages et inconvénients | Documentaire DW (documentaire IA)

La vidéo traite des avantages et des inconvénients de l'intelligence artificielle, en mettant l'accent sur les implications éthiques de l'IA. Il met en évidence comment l'IA peut être utilisée pour améliorer l'efficacité et la sécurité publique, mais aussi comment elle peut être utilisée pour violer la vie privée. La vidéo interviewe Jens Redma, un employé de longue date de Google, sur l'importance de l'IA pour l'entreprise.

  • 00:00:00 L'intelligence artificielle progresse rapidement, avec le potentiel de révolutionner de nombreux aspects de la vie quotidienne. Cependant, les implications de l'intelligence artificielle sur la main-d'œuvre et la vie privée suscitent également des inquiétudes.

  • 00:05:00 L'intelligence artificielle est utilisée pour analyser de grands ensembles de données, y compris des radiographies pulmonaires, afin d'identifier des anomalies. La précision des algorithmes est similaire à celle des radiologues humains. Cependant, les algorithmes ne sont pas parfaits et les humains sont toujours nécessaires pour prendre des décisions en clinique basées sur des probabilités.

  • 00:10:00 Max Little est un mathématicien de l'Université d'Aston qui a développé un algorithme pour détecter les différences de schémas vocaux entre les personnes atteintes et non atteintes de la maladie de Parkinson. L'étude a montré que l'algorithme était précis à près de 99% pour identifier la condition. Bien que ce travail soit potentiellement précieux, il existe des préoccupations éthiques concernant l'utilisation de ces données pour diagnostiquer des personnes sans leur consentement approprié.

  • 00:15:00 La vidéo présente les avantages et les inconvénients de l'intelligence artificielle, y compris sa capacité à améliorer la sécurité publique et l'efficacité. Il traite également du compromis entre confidentialité et sécurité. En Chine, il existe une tradition et une approche différentes de la question de la confidentialité et de la surveillance, en mettant l'accent sur l'efficacité et la collecte de données.

  • 00:20:00 Dans la vidéo, les avantages et les inconvénients de l'intelligence artificielle sont discutés. La vidéo explique également comment des entreprises comme Google ont un impact sur la société et comment l'Union européenne inflige actuellement à Google une amende antitrust de 2,7 milliards de dollars.

  • 00:25:00 La vidéo traite de l'importance de l'intelligence artificielle (IA) pour Google et aborde certaines des préoccupations soulevées quant à son impact sur la société. Il interroge également Jens Redma, un employé de longue date de Google, sur l'importance de l'IA pour l'entreprise.

  • 00:30:00 La vidéo discute des avantages et des inconvénients de l'intelligence artificielle, soulignant l'importance de l'intuition et de la prise de décision humaine sur le terrain. Il parle de la nécessité pour l'IA de pouvoir naviguer dans des environnements complexes et des difficultés rencontrées pour y parvenir.

  • 00:35:00 L'intelligence artificielle peut aider les conducteurs à éviter les accidents, mais il existe des questions éthiques sur la façon de décider qui sauver dans une situation aussi rapide. Dans une récente enquête en ligne, les gens s'accordaient sur un certain nombre de valeurs morales, mais différaient sur la façon d'agir dans des scénarios spécifiques.

  • 00:40:00 Dans ce documentaire, des chercheurs discutent des avantages et des inconvénients de l'intelligence artificielle et des algorithmes. Ils discutent de la manière dont l'IA peut nous aider à prendre des décisions plus efficacement, mais notent qu'il reste encore des questions éthiques à résoudre.
Artificial intelligence and algorithms: pros and cons | DW Documentary (AI documentary)
Artificial intelligence and algorithms: pros and cons | DW Documentary (AI documentary)
  • 2019.09.26
  • www.youtube.com
Developments in artificial intelligence (AI) are leading to fundamental changes in the way we live. Algorithms can already detect Parkinson's disease and can...
Raison: