1. ONNX Runtime
Cette vidéo traite du projet Open Neural Network Exchange (ONNX), qui est un format ouvert pour représenter des modèles d'apprentissage traditionnels et profonds. Il décrit également ONNX Runtime, le moteur à hautes performances pour l'exécution des modèles.
ONNX Runtime offre une couverture et une prise en charge complètes de tous les opérateurs définis dans ONNX. Il fonctionne à la fois avec le CPU et le GPU sur de nombreux systèmes d’exploitation, notamment Linux, Windows et Mac.
Il fournit également un guide pas-à-pas pour la conversion, le chargement et l'exécution d'un modèle à l'aide d'ONNX Runtime dans Azure ML et démontre ses avantages potentiels, notamment l'amélioration des performances et l'efficacité des prédictions pour divers modèles.
La vidéo encourage les développeurs à essayer ONNX et à contribuer à la communauté croissante d'ONNX.
- www.mql5.com
2. Conversion de modèles au format #ONNX
La vidéo décrit diverses méthodes de conversion des modèles ML au format ONNX avec ONNX Runtime. ONNX est compatible avec de nombreuses bibliothèques d'apprentissage automatique populaires telles que PyTorch, TensorFlow et Scikit-Learn.
Pour convertir un modèle au format ONNX, utilisez la bibliothèque de conversion désirée, puis créez un modèle ONNX à l'aide de cette bibliothèque. Cela permet l'utilisation du modèle avec ONNX Runtime, ce qui améliore les performances du modèle et le rend compatible avec plusieurs frameworks.
La vidéo fournit des exemples de conversion de modèles au format ONNX à l'aide de PyTorch et TensorFlow.
- www.mql5.com
3. ONNX - un format ouvert pour les modèles d'apprentissage automatique
La vidéo fournit une description du format ONNX, un format ouvert conçu pour représenter les modèles d'apprentissage automatique. Vous pouvez convertir des modèles de différents frameworks au format ONNX pour assurer leur compatibilité et leur facilité d'utilisation.
Certains exemples montrent des formats compatibles tels que TensorFlow, PyTorch, Keras et scikit-learn et expliquent les avantages de l'utilisation d'ONNX, parmi lesquels un temps d'exécution de modèle plus rapide et des performances optimisées sur du matériel spécifique.
Dans la vidéo suivante, l'auteur montre comment convertir un modèle de Keras en ONNX et comment le tester pour des problèmes de classification et de segmentation d'images.
4. Déploiement de Modèle Entraînés (Profond) avec ONNX
La vidéo couvre le développement d'une bibliothèque ML open source Microsoft publiée sur GitHub.
L'auteur explique le problème de déploiement des modèles d'apprentissage automatique lorsque le modèle est construit sur une grosse machine avec des giga-octets de mémoire, mais qu’il est ensuite utilisé dans des conditions très différentes nécessitant une optimisation pour une prédiction à la fois .
L'auteur démontre les performances de différentes bibliothèques telles que scikit-learn, XGBoost et ML.NET et montre que la différence de performances diminue à mesure que la taille du package augmente. L'auteur présente ONNX comme une solution d'optimisation pour ce genre de cas.
5. Réseaux Neuronaux Récurrents | Prédictions de Mouvement des Prix LSTM Pour les Algorithmes de Trading
La vidéo traite de l'utilisation des réseaux neuronaux récurrents, en particulier des réseaux LSTM, pour prédire les mouvements de prix sur les marchés financiers, y compris le FOREX, les actions et les crypto-monnaies.
L'algorithme est écrit en Python. Vous pouvez le télécharger et le tester avec différents paramètres.
On pense que les algorithmes d'apprentissage automatique en profondeur présentent d'excellentes performances prédictives. Il est testé ici dans le trading et la prévision des mouvements de prix. Il utilise également des indicateurs techniques, tels que le RSI (Relative Strength Indicator) et des Moyennes Mobiles (MA, Moving Averages), pour étendre les entrées du modèle de trading.
Tout ce que vous voulez savoir sur ONNX
Tout ce que vous voulez savoir sur ONNX
Le format ONNX vise à relever les défis présentés par l'ensemble fragmenté d'outils et de cadres dans l'environnement d'apprentissage en profondeur en fournissant un format de fichier portable qui permet d'exporter des modèles d'un cadre à un autre. Il est hautement transparent et bien documenté, normalisant les syntaxes, la sémantique et les conventions utilisées dans le domaine de l'apprentissage en profondeur et prenant en charge à la fois les modèles d'apprentissage en profondeur et d'apprentissage automatique traditionnels. ONNX permet l'interopérabilité, l'efficacité et l'optimisation dans divers environnements matériels sans optimisation ou conversion manuelle. La vidéo présente une démonstration de base de la conversion d'un modèle formé de scikit-learn au format ONNX à l'aide du convertisseur spécifique à ONNX et montre comment effectuer l'inférence finale dans un cas d'utilisation réactif où la formation est effectuée à l'aide d'une torche PI, et l'inférence est effectuée dans TensorFlow.
Le webinaire se termine par une démonstration de la conversion d'un modèle ONNX au format TensorFlow à l'aide de la fonction "préparer" du "backend ONNX TF" et de l'enregistrement de la sortie sous forme de fichier ".pb". L'orateur note que le modèle TensorFlow peut alors être utilisé pour l'inférence sans faire aucune référence à ONNX. Le public est remercié et l'orateur annonce les articles à venir sur ONNX sur The New Stack, ainsi qu'un autre webinaire à venir sur l'environnement d'exécution des applications distribuées de Microsoft. Les retours des participants ont été positifs.
- 00:00:00 Si vous rencontrez des difficultés avec les complexités de l'apprentissage automatique et de l'apprentissage en profondeur en raison de la fragmentation et de l'ensemble distribué d'outils et de cadres, ONNX pourrait bien être la solution dont vous avez besoin. Dans une section d'un webinaire, le conférencier explique les défis actuels rencontrés dans l'environnement d'apprentissage en profondeur et comment ONNX peut les relever. En supposant une familiarité générale avec l'apprentissage automatique et l'apprentissage en profondeur, la discussion fournit un aperçu détaillé des promesses offertes par ONNX et le runtime ONNX. À la fin de cette section, le public est initié à l'idée de la convergence de l'intelligence artificielle et de l'infrastructure moderne, qui est un thème récurrent tout au long de la série de webinaires.
- 00:05:00 Dans cette rubrique, l'intervenante aborde les enjeux du deep learning, notamment en termes de formation et de production. En ce qui concerne la formation, l'utilisation d'un ensemble fragmenté de frameworks et de boîtes à outils n'est pas facile, et l'infrastructure est essentielle lorsque vous travaillez avec des GPU pour accélérer la formation. De plus, il ne s'agit pas seulement de matériel, mais aussi de logiciels, tels que CUDA et KuDNN pour les GPU NVIDIA et oneDNN pour les FPGA d'Intel. Du côté de la production, le modèle formé doit être optimisé pour l'environnement cible afin d'offrir une haute précision et une faible latence, ce qui nécessite de convertir les types de données et d'utiliser des outils comme TensorRT. Ainsi, l'apprentissage en profondeur nécessite de comprendre les couches matérielles et logicielles et d'optimiser le modèle pour fournir les performances souhaitées.
- 00:10:00 Dans cette section, l'orateur discute des divers outils, cadres et environnements matériels nécessaires pour optimiser et déployer efficacement les modèles d'IA. L'orateur souligne le besoin d'optimisation et de quantification du modèle, en particulier pour les processeurs, et mentionne les kits d'outils populaires tels que Nvidia T4 et le kit d'outils OpenVINO d'Intel. L'orateur explique en outre que différents environnements matériels nécessitent différentes boîtes à outils, telles que la famille Jetson de Nvidia pour l'automatisation industrielle et les cas d'utilisation de l'IoT, l'unité de traitement de la vision d'Intel pour l'informatique de la vision et le TPU Edge de Google pour la périphérie. Le processus d'optimisation et de déploiement des modèles d'IA est un processus complexe et continu qui implique la détection de la dérive, le recyclage, l'optimisation, le déploiement et la mise à l'échelle du modèle. L'orateur souligne l'importance d'avoir un pipeline qui prend en charge efficacement tout ce mécanisme en boucle fermée.
- 00:15:00 Dans cette section, l'orateur présente ONNX en tant qu'échange de réseau de neurones ouvert qui agit comme intermédiaire entre différents cadres et environnements cibles favorisant l'efficacité, l'optimisation et l'interopérabilité. ONNX prend en charge les modèles d'apprentissage en profondeur et d'apprentissage automatique traditionnels et permet l'exportation et l'importation de modèles d'un framework à un autre. De plus, ONNX prend en charge divers environnements matériels sans optimisation ou conversion manuelle. L'orateur note que depuis sa création en 2017 avec les membres fondateurs AWS, Microsoft et Facebook, ONNX s'est considérablement développé avec les contributions de Nvidia, Intel, IBM, Qualcomm, Huawei, Baidu, etc., promouvant activement cet écosystème au sein des plateformes de cloud public, boîtes à outils et runtimes. ONNX a connu un changement important en réponse aux progrès d'autres cadres et boîtes à outils, le rendant compact, multiplateforme et en suivant les derniers développements.
- 00:20:00 Dans cette section, l'orateur discute d'ONNX, un format de fichier portable qui permet l'exportation de modèles formés dans un cadre ou une boîte à outils dans un autre. ONNX est fortement inspiré des environnements d'exécution portables tels que JVM et CLR et fournit un niveau d'abstraction et de découplage des kits d'outils de niveau supérieur. Il s'agit d'un format hautement transparent et bien documenté qui normalise les syntaxes, la sémantique et les conventions utilisées dans le domaine de l'apprentissage en profondeur. ONNX ML est également une extension qui prend en charge l'apprentissage automatique traditionnel. Lorsqu'un modèle est exporté au format ONNX, il devient un graphique de plusieurs nœuds de calcul qui représentent l'ensemble du modèle.
- 00:25:00 Dans cette section, l'orateur explique la structure des nœuds de calcul dans un graphe dans ONNX. Chaque nœud est autonome et contient un opérateur qui effectue le calcul réel, ainsi que des données d'entrée et des paramètres. Les données d'entrée peuvent être un tenseur composé de divers types de données, qui est traité par l'opérateur pour émettre une sortie qui est envoyée au nœud de calcul suivant. L'orateur note également que les opérateurs sont essentiels dans ONNX car ils mappent le type d'opérateur ONNX avec le cadre ou la boîte à outils de niveau supérieur, ce qui facilite l'interprétation du modèle et la mise en correspondance de la structure graphique de haut niveau avec l'opérateur réel disponible dans ONNX.
- 00:30:00 Dans cette section, la vidéo traite des opérateurs personnalisés et de la façon dont ils peuvent être définis dans ONNX. Les opérateurs personnalisés sont utiles pour les utilisateurs avancés qui créent leurs propres fonctions ou techniques d'activation qui ne sont pas incluses dans les opérateurs ONNX disponibles. Les opérateurs personnalisés peuvent ensuite être utilisés pour exporter un modèle à partir d'un niveau de cadre vers ONNX. La vidéo présente ensuite une démonstration de base de l'utilisation d'ONNX pour convertir un modèle formé de scikit-learn au format ONNX à l'aide du convertisseur spécifique à ONNX.
- 00:35:00 Dans cette section, l'orateur met en évidence la transparence et l'interprétabilité du format ONNX, qui permet une analyse et une exploration faciles de la structure du modèle. Le modèle ONNX peut même être exporté vers protobuf, permettant une itération par programmation sur les nœuds disponibles dans le modèle. La vidéo illustre l'inférence à l'aide d'un modèle existant, et le code montre comment envoyer des données d'entrée pour l'inférence, qui renvoie un tableau numpy avec la classification de chaque élément dans les données d'entrée. L'un des avantages d'ONNX est qu'il est découplé d'Escalon, vous n'avez donc pas à vous soucier de l'origine du modèle, ce qui facilite la consommation du modèle. Le format ONNX est similaire aux fichiers DLL ou jar, car vous n'avez pas à vous soucier du langage de programmation dans lequel il a été écrit avant sa consommation, ce qui le rend flexible et polyvalent.
- 00:40:00 Dans cette section, l'orateur parle du format de fichier ONNX et de l'exécution ONNX. ONNX est un format portable et indépendant qui définit le graphe et les opérateurs d'un modèle dans une spécification bien définie. Le runtime ONNX, en revanche, est un projet piloté et défendu par Microsoft. Il s'agit d'un projet différent d'ONNX et porte la promesse d'ONNX au niveau supérieur en créant le temps d'exécution réel. Microsoft parie gros sur le runtime ONNX car il devient de facto la couche minimale dans Windows 10. L'orateur explique la relation entre ONNX et le runtime ONNX à travers une représentation visuelle de leurs couches.
- 00:45:00 Dans cette section, l'orateur discute de la promesse du runtime ONNX, qui fait abstraction du matériel sous-jacent, ce qui le rend facile à utiliser avec différents matériels et optimiseurs. ONNX utilise des fournisseurs d'exécution via un modèle de plug-in, qui peut être créé par les fournisseurs de matériel pour s'interfacer avec leurs pilotes et bibliothèques existants, ce qui rend le runtime extrêmement portable. Microsoft a publié de nombreux benchmarks qui prouvent que le runtime ONNX est très performant et de nombreuses équipes de produits au sein de Microsoft l'adoptent désormais comme leur runtime d'apprentissage en profondeur préféré, de Bing à Office 365 en passant par les services cognitifs. Le conférencier décrit ensuite les quatre façons d'obtenir des modèles ONNX que vous pouvez exécuter sur le runtime ONNX, en commençant par Model Zoo et en terminant par l'utilisation d'Azure ml pour former et déployer le modèle dans le cloud ou à la périphérie.
- 00:50:00 Dans cette section, le présentateur explique comment télécharger un modèle ONNX pré-formé à partir du zoo de modèles et l'utiliser pour l'inférence. La démo implique un modèle EMNIST ONNX pré-formé téléchargé à partir du zoo modèle et des images de test de chiffres manuscrits utilisés pour l'inférence. Le présentateur parcourt le code et explique les étapes de prétraitement nécessaires avant d'envoyer les données d'entrée au modèle ONNX. Le code utilise les bibliothèques d'exécution ONNX, NumPy et OpenCV, et la sortie finale correspond aux valeurs numériques prévues. Le présentateur démontre que le modèle est précis et peut identifier correctement les chiffres manuscrits.
- 00:55:00 Dans cette section, l'orateur montre comment effectuer l'inférence finale dans un cas d'utilisation très réactif où la formation est effectuée à l'aide d'une torche PI et l'inférence est effectuée dans TensorFlow. L'orateur montre comment convertir un modèle de torche PI en un modèle ONNX, puis en un fichier protobuf directement utilisable dans TensorFlow. Le code est simple et la conversion est effectuée via un outil d'exportation intégré disponible dans Pytorch.
- 01:00:00 Dans cette section, l'intervenant explique comment convertir un modèle ONNX au format TensorFlow. Cela se fait en important simplement ONNX et en utilisant la fonction "préparer" du "backend ONNX TF" pour charger le modèle, puis en écrivant la sortie dans un fichier ".pb". L'orateur démontre que le modèle TensorFlow peut ensuite être utilisé pour l'inférence, sans faire aucune référence à ONNX. La session se termine par une note sur les articles à venir sur ONNX par le conférencier sur The New Stack, où des tutoriels et tout le code source seront disponibles.
- 01:05:00 Cette section ne contient aucune information sur ONNX, mais sert plutôt de conclusion à un webinaire sur le sujet. L'orateur remercie le public pour sa présence et son soutien, et annonce que la vidéo enregistrée du webinaire sera bientôt mise en ligne. Le public est invité à évaluer la pertinence et la qualité du webinaire, la plupart des répondants donnant des commentaires positifs. Le conférencier conclut en annonçant un autre webinaire à venir sur l'exécution des applications distribuées de Microsoft, qui aura lieu le mois prochain.
- 2020.07.12
- www.youtube.com
ONNX et temps d'exécution ONNX
ONNX et temps d'exécution ONNX
L'écosystème ONNX est un format standard interopérable qui convertit les modèles de n'importe quel cadre en un format de représentation de modèle uniforme optimisé pour chaque cible de déploiement. L'implémentation ONNX Runtime de la norme ONNX est multiplateforme et modulaire, avec prise en charge de l'accélérateur matériel. Les différents niveaux d'optimisation sur lesquels les transformateurs fonctionnent incluent la transformation de graphe, le partitionnement de graphe et l'affectation. Les conférenciers discutent également de divers avantages de l'utilisation d'ONNX, tels que l'API C, la stabilité de l'API pour tirer parti des nouveaux avantages en termes de performances sans se soucier de la rupture de la compatibilité binaire, et l'outil ONNX Go Live qui peut être utilisé pour déterminer la configuration optimale pour exécuter un modèle ONNX. sur différents matériels. Ils comparent également ONNX aux frameworks et abordent la compatibilité multiplateforme.
- 00:00:00 Dans cette section, Ton of Sharma, de l'équipe ONNX Runtime, donne une introduction et une étude de l'écosystème ONNX, expliquant sa motivation et son adoption généralisée dans Microsoft, ainsi que la conception technique pour ONNX et ONNX Runtime. Il met en évidence les problèmes de différentes équipes utilisant différents frameworks pour former leurs modèles, mais lorsqu'il s'agit de déployer des modèles en production et d'utiliser le matériel au maximum, ONNX se situe au milieu et convertit les modèles de n'importe quel framework en un format de représentation de modèle uniforme, optimisé pour chaque cible de déploiement, ce qui en fait un format standard interopérable. Le projet open source a été lancé en décembre 2017, avec Facebook, Microsoft et Amazon parmi les premiers à rejoindre le consortium, qui compte désormais plus de 40 à 50 entreprises participant activement et investissant dans l'ONNX.
- 00:05:00 Dans cette section, l'orateur aborde les différentes manières d'obtenir un modèle ONNX une fois qu'un modèle a été formé dans le cadre souhaité, comme l'utilisation du zoo de modèles ONNX, l'outil Azure Custom Vision AutoML ou la conversion open source outils pour convertir un modèle dans un format spécifique vers ONNX. Le runtime ONNX, qui est l'implémentation de la norme ONNX, est présenté comme un moyen d'exécuter le modèle ONNX aussi rapidement que possible sur l'appareil ou la cible de déploiement souhaité. Il est extensible, modulaire et multiplateforme, avec une prise en charge intégrée des accélérateurs matériels de divers fournisseurs tels que Tensor RT et Intel MKL DNN. La dernière version, ONNX Runtime 1.0, prend entièrement en charge la spécification ONNX et constitue la bibliothèque principale exécutée dans le framework Windows Machine Learning.
- 00:10:00 cette section, l'orateur parle du déploiement d'ONNX après l'avoir compilé au format JET en utilisant LLVM et TVM comme frameworks sous-jacents. Ils ont publié des points de référence et des blocs-notes pour le déploiement d'ONNX sur divers types d'appareils, y compris le service d'apprentissage automatique Azure, les clouds de périphérie et les appareils IoT de périphérie, ce qui fait partie de leur planification pour la plate-forme MNIST. Le ML minimal et le ML dotnet de Microsoft prennent déjà en charge ONNX, et ils ont jusqu'à présent environ 60 modèles ONNX en production avec une moyenne de 3 fois l'amélioration des performances. Les principes de conception d'ONNX devaient être interopérables, compacts, multiplateformes, rétrocompatibles et prendre en charge à la fois les modèles de charge profonde et d'apprentissage automatique traditionnels.
- 00:15:00 Dans cette section, l'orateur aborde les trois parties de la spécification ONNX, en commençant par la représentation du graphe de flux de données lui-même. Il explique que la représentation peut être étendue et que de nouveaux opérateurs et types peuvent y être ajoutés. La deuxième partie est la définition des types et attributs standard stockés dans le graphe, tandis que la troisième partie est le schéma de chaque opérateur du modèle ONNX. Le format de fichier de modèle est basé sur protobuf, qui est facilement inspectable, et inclut la version, les métadonnées et le graphe de calcul acyclique, qui comprend les entrées, les sorties, les nœuds de calcul et le nom du graphe. Les types de tenseurs, les types complexes et non tenseurs tels que les séquences et les cartes sont pris en charge. L'ensemble d'opérateurs ONNX comprend environ 140 opérateurs, et n'importe qui peut ajouter plus d'opérateurs en soumettant une demande d'extraction au référentiel GitHub open source ONNX.
- 00:20:00 Dans cette section, l'orateur discute des capacités d'ONNX, y compris la possibilité d'ajouter des opérations personnalisées qui peuvent ne pas être prises en charge par les opérations existantes d'ONNX. L'orateur parle également de l'importance de la gestion des versions et de la manière dont ONNX intègre la gestion des versions à trois niveaux différents, y compris la version IR, la version OP set et la version opérateur. Le runtime ONNX est également abordé, ses principaux objectifs étant les performances, la compatibilité ascendante et descendante, la compatibilité multiplateforme et l'exécution hybride des modèles. Le runtime inclut une architecture enfichable pour ajouter des accélérateurs matériels externes.
- 00:25:00 Dans cette section, l'intervenant explique les deux phases de l'exécution d'un modèle dans ONNX Runtime, qui consistent à créer une session avec le modèle et à charger le modèle, puis à appeler les API d'exécution. Lors du chargement du modèle, une représentation graphique inefficace du protobuf est créée, puis le graphique passe par différents niveaux de transformations de graphique, similaires aux optimisations du compilateur. ONNX Runtime fournit différents niveaux de règles de transformation de graphes et de fusions qui peuvent être personnalisées, et l'utilisateur peut ajouter ses propres règles via l'API. Une fois le graphe optimisé, il est partitionné en différents accélérateurs matériels, et chaque nœud est affecté à un accélérateur spécifique. L'orateur aborde également la partie exécution et mentionne les deux modes de fonctionnement, le mode séquentiel et le mode d'exécution parallèle. Enfin, l'orateur parle des travaux futurs d'ONNX Runtime pour indiquer à l'utilisateur sur quels fournisseurs s'exécuter.
- 00:30:00 Dans cette section, l'orateur explique les détails de l'optimisation dans ONNX Runtime. La transformation du graphe, le partitionnement du graphe et l'affectation sont les différents niveaux d'optimisation sur lesquels les transformateurs travaillent pour réécrire le graphe. La session et l'exécution sont la double API du runtime ONNX qui charge et optimise le modèle pour le rendre prêt à être exécuté avec un simple appel à la fonction d'exécution. L'orateur parle également du fournisseur d'exécution, qui est l'interface d'accélérateur matériel du Runtime ONNX et comment les fournisseurs peuvent ajouter un nouvel accélérateur matériel en mettant en œuvre une API de fournisseur d'exécution. Enfin, l'orateur mentionne les multiples points d'extension du runtime ONNX, tels que l'ajout de nouveaux fournisseurs d'exécution ou d'opérations personnalisées et l'extension du niveau des fusions.
- 00:35:00 Dans cette section, le conférencier discute des avantages de l'utilisation de l'API C dans ONNX Runtime, y compris la stabilité de l'API qui permet aux utilisateurs de profiter de nouveaux avantages en matière de performances sans se soucier de rompre la compatibilité binaire. Il explique également l'outil ONNX Go Live qui peut être utilisé pour déterminer la configuration optimale pour exécuter un modèle ONNX sur différents matériels. L'orateur aborde ensuite les fonctionnalités à venir, notamment la prise en charge de N dans l'API sur les appareils Android, Qualcomm et l'optimisation de la formation, en plus des optimisations continues des performances pour que ONNX Runtime s'exécute aussi rapidement que possible.
- 00:40:00 Dans cette section de la vidéo, les conférenciers se concentrent sur l'importance d'optimiser les opérations au sein d'un certain opérateur (OP) pour s'assurer qu'il fonctionne aussi vite que possible. Ils comparent ONNX avec des frameworks, essayant d'identifier s'il fonctionne mieux ou non que ses prédécesseurs. Les conférenciers discutent également du fonctionnement de la formation, notant que bien qu'ils y travaillent, la formation à la source n'est pas encore terminée. Ils répondent également aux questions concernant ce que produit le format ONNX et le type de formats qu'il peut gérer, comme les chaînes. Il y a des discussions sur l'impact de Microsoft sur la conception d'ONNX Runtime en tant que produit phare, qui manque actuellement d'un mode de gouvernance ouvert et est finalement contrôlé par Microsoft, bien qu'ils continuent d'accueillir des contributions externes. L'orateur aborde également la compatibilité multiplateforme, notant que le runtime est conçu pour Linux, Windows et Mac.
- 2019.12.06
- www.youtube.com
ONNX - ONNX Runtime, exemple simple
ONNX - ONNX Runtime, exemple simple
Dans cette vidéo YouTube, le conférencier présente ONNX, un format ouvert pour les modèles d'apprentissage automatique qui peut optimiser les performances sur plusieurs cadres. La vidéo fournit des exemples d'utilisation d'ONNX dans différents scénarios, tels que l'analyse des sentiments d'articles de presse et la conversion de classificateurs vectoriels numériques en réseaux de neurones. L'orateur souligne l'importance d'utiliser des bibliothèques établies pour les fonctions et de mesurer avec précision le temps d'exécution du code. De plus, l'orateur discute des défis du développement sur différents systèmes d'exploitation et recommande de ne charger que les modules nécessaires pour améliorer les performances d'exécution. Dans l'ensemble, cette vidéo fournit des informations précieuses sur les avantages et les défis de l'utilisation d'ONNX pour les modèles d'apprentissage automatique.
- 00:00:00 Dans cette section, le conférencier décrit ONNX, un format ouvert pour les modèles d'apprentissage automatique qui peut être utilisé dans divers cadres pour optimiser les performances des modèles. ONNX est basé sur le protocol buffer, qui est un format binaire analogique du format XML mais plus rapide et plus adapté aux petits messages. Les modèles ONNX peuvent être développés dans un système d'exploitation et un processeur et utilisés n'importe où, y compris les appareils mobiles et les cartes graphiques. Le runtime ONNX est une bibliothèque pour l'accélération multiplateforme de la formation et de l'inférence de modèles. ONNX permet également la quantification du modèle pour réduire sa taille sans utiliser d'accélération matérielle, et l'élagage d'un modèle pour réduire sa taille en remplaçant certaines de ses valeurs de poids par des valeurs nulles. Le haut-parleur comprend un lien vers les sites Web où plus d'informations sur ONNX peuvent être trouvées.
- 00:05:00 Dans cette section, l'orateur décrit les étapes nécessaires pour travailler avec un modèle pré-formé au format ONNX à l'aide d'ONNX Runtime. Le modèle peut être créé à l'aide de n'importe quel framework, enregistré au format ONNX, puis utilisé de différentes manières, par exemple sur un serveur moins puissant ou pour gérer de lourdes charges de serveur. L'orateur fournit ensuite un exemple d'utilisation de la bibliothèque de transformateurs Hugging Face pour déterminer le sentiment des articles de presse liés à la crypto-monnaie. Enfin, l'orateur démontre une application du modèle en chargeant et en traitant les bibliothèques nécessaires et en montrant le résultat de l'exécution du modèle sur un exemple d'article de presse.
- 00:10:00 Dans cette section, l'orateur discute du processus de conversion d'un classificateur vectoriel numérique pour produire des résultats à partir d'un réseau de neurones, à l'aide du cadre ONNX. Ils expliquent que la fonction SoftMax n'a pas été utilisée car elle ralentissait considérablement le processus et qu'à la place, des valeurs entrées manuellement ont été utilisées. Le modèle a ensuite été chargé et testé pour sa précision, montrant des résultats prometteurs. Cependant, des difficultés ont été rencontrées lors de l'installation sur différents systèmes d'exploitation et cadres, soulignant la nécessité de tests approfondis et de flexibilité dans le déploiement des modèles.
- 00:15:00 Dans cette section, l'orateur discute des problèmes potentiels qui peuvent survenir lors de la tentative de développement de logiciels sur différentes plates-formes et de l'importance d'utiliser des bibliothèques établies plutôt que d'essayer de tout implémenter manuellement. Elle mentionne les problèmes liés à l'utilisation de différents formats à virgule flottante et comment cela peut entraîner des erreurs lorsque vous essayez de travailler avec des nombres très grands ou très petits. De plus, elle suggère d'utiliser des implémentations préexistantes de fonctions comme SoftMax plutôt que d'essayer de créer des fonctions personnalisées, car les développeurs de bibliothèques établies ont déjà traité les problèmes potentiels qui peuvent survenir.
- 00:20:00 Dans cette section, l'orateur discute des problèmes qu'il a rencontrés lors du développement sur MacOS et des différences entre MacOS et Linux. Il mentionne également la nécessité de charger uniquement les modules nécessaires tout en désactivant le reste pour améliorer les performances d'exécution, car le chargement d'un trop grand nombre de modules pourrait affecter considérablement le temps d'exécution. L'orateur recommande également d'utiliser l'utilitaire "timeet" pour mesurer le temps d'exécution avec précision, en tenant compte des différents facteurs pouvant affecter les performances.
- 00:25:00 Dans cette section de la vidéo, l'orateur discute de l'importance de mesurer le temps d'exécution du code, en particulier pour comparer les performances de différents morceaux de code. Ils soulignent la nécessité de mesurer plusieurs fois le temps d'exécution et de prendre la moyenne pour une évaluation plus précise. L'orateur utilise ensuite cette approche pour comparer les performances de deux morceaux de code avec différentes manières de gérer les données, ce qui a montré qu'une méthode était nettement plus rapide que l'autre. Enfin, l'orateur fournit un lien vers sa présentation et remercie le public pour sa participation.
- 2023.01.25
- www.youtube.com
Un aperçu du convertisseur PyTorch-ONNX
Un aperçu du convertisseur PyTorch-ONNX
Dans cet aperçu, Bowen Bao de Microsoft présente le convertisseur PyTorch-ONNX, expliquant son architecture et son flux pour convertir un modèle PyTorch en représentation intermédiaire de torche (IR), puis en IR ONNX, et enfin en un fichier Protobuf. Le convertisseur gère l'exportation de modèles avec des formes dynamiques, des modèles quantifiés et capture des boucles, des instructions if et d'autres opérations via la boucle ONNX et les nœuds ONNX if. De plus, les utilisateurs peuvent créer des opérateurs personnalisés ou utiliser des opérateurs PyTorch personnalisés existants pour exporter un modèle ONNX ou enregistrer une fonction symbolique personnalisée pour indiquer à l'exportateur comment l'exporter. Bowen explique également la fonction locale ONNX, aborde la précision mixte via la diffusion automatique et conclut avec des plans pour continuer à prendre en charge davantage de modèles tout en améliorant le diagnostic des pannes.
- 00:00:00 Dans cette section, Bowen, ingénieur logiciel chez Microsoft, donne un aperçu du convertisseur PyTorch-ONNX, y compris son architecture et son flux. Le convertisseur, qui fait partie du package PyTorch, utilise le traceur de torche et le script de torche pour convertir un modèle PyTorch en représentation intermédiaire de torche (IR), puis en IR ONNX. La dernière étape consiste à le sérialiser en un modèle ONNX dans un fichier Protobuf. Le convertisseur prend en charge l'exportation de modèles avec des formes d'entrée et de sortie dynamiques, ainsi que des modèles quantifiés, et il peut capturer des boucles, des instructions if et d'autres opérations via la boucle ONNX et les nœuds ONNX if. De plus, les utilisateurs peuvent créer des opérateurs personnalisés ou utiliser PyTorch personnalisé existant
opérateurs pour exporter un modèle ONNX ou enregistrer une fonction symbolique personnalisée pour indiquer à l'exportateur comment l'exporter. Enfin, Bowen explique la motivation derrière la fonction locale ONNX. - 00:05:00 Dans cette section, l'accent est mis sur le convertisseur PyTorch-ONNX et certaines plaintes courantes concernant le modèle ONNX exporté, telles que les nœuds aplatis. Pour résoudre ce problème, une fonctionnalité de fonction locale a été ajoutée qui permet aux utilisateurs de spécifier une classe de module Torch ou une fonction de type de nœud. La précision mixte est également prise en charge grâce à l'utilisation de Torch autocast et de NVIDIA Apex mp. La vidéo se termine par une discussion sur l'amélioration du diagnostic des pannes et l'objectif de continuer à prendre en charge davantage de modèles. Les liens fournis offrent des ressources et des outils utiles pour ceux qui utilisent le convertisseur PyTorch-ONNX.
- 2022.07.13
- www.youtube.com
défis de l'apprentissage en profondeur | Tutoriel-2 | Échange de réseau neuronal ouvert | ONNX
défis de l'apprentissage en profondeur | Tutoriel-2 | Échange de réseau neuronal ouvert | ONNX
Les défis liés à l'utilisation de différents frameworks d'apprentissage en profondeur et d'accélérateurs matériels pendant l'inférence sont abordés dans ce segment vidéo. ONNX est présenté comme un type de modèle intermédiaire compatible avec divers frameworks d'apprentissage en profondeur et accélérateurs matériels, permettant un transfert transparent des modèles entre eux. La conversion des modèles ONNX en cadres spécifiques lorsque cela est nécessaire permet une plus grande flexibilité lors de l'utilisation de modèles formés sur différents systèmes. Comprendre ces défis et ces solutions peut aider à créer un pipeline efficace pour travailler avec l'apprentissage en profondeur.
- 00:00:00 Dans cette section de la vidéo, les défis de l'apprentissage en profondeur sont abordés. Les différents frameworks populaires utilisés dans l'apprentissage en profondeur incluent Cafe, TensorFlow, Keras et MXNet. Pour une puissance de calcul élevée, des accélérateurs matériels sont nécessaires, qui sont optimisés pour les solutions d'apprentissage en profondeur, telles que NVIDIA GPU, Intel GPU et Google TPU. L'inférence nécessite également un modèle optimisé pour garantir l'efficacité, et il existe diverses options matérielles d'inférence disponibles telles que NVIDIA T4, les processeurs et les appareils S comme Google Coral, Raspberry Pi et Jetson VR. Il est crucial de prendre en compte les facteurs logiciels et matériels lors de la sélection d'un appareil à des fins d'apprentissage en profondeur. ONNX est préféré pour sa compatibilité avec divers frameworks d'apprentissage en profondeur et accélérateurs matériels, facilitant le transfert transparent des modèles entre eux.
- 00:05:00 Dans cette section, l'orateur explique le défi d'utiliser un modèle formé avec un cadre ou un matériel différent dans la phase d'inférence. Ce problème peut être résolu avec l'Open Neural Network Exchange (ONNX), un type de modèle intermédiaire qui peut être utilisé avec différents matériels et infrastructures. Le modèle ONNX peut être converti en n'importe quel cadre spécifique si nécessaire. Cette solution permet une plus grande flexibilité dans l'utilisation de modèles entraînés sur différents systèmes. L'orateur conclut en disant que la compréhension de ces problèmes et solutions aidera à créer un pipeline et à travailler efficacement avec l'apprentissage en profondeur.
- 2022.05.24
- www.youtube.com
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Vous acceptez la politique du site Web et les conditions d'utilisation
Nous avons ajouté la prise en charge des modèles ONNX dans MQL5 car nous pensons que c'est l'avenir. Nous avons créé ce sujet pour discuter et étudier ensemble ce domaine prometteur, qui pourra aider à élever l'utilisation de l'apprentissage automatique à un nouveau niveau. En utilisant les nouvelles fonctionnalités, vous pouvez former des modèles dans votre environnement préféré, puis les exécuter avec un minimum d'effort.
Un bref aperçu de la technologie
ONNX (Open Neural Network Exchange) est un format open source permettant d'échanger des modèles d'apprentissage automatique (Machine Learning) entre différents frameworks. Développé par Microsoft, Facebook et Amazon Web Services (AWS), il vise à faciliter le développement et le déploiement de modèles ML.
Les principaux avantages d'ONNX :
Pour utiliser ONNX, les développeurs peuvent exporter leurs modèles depuis divers frameworks tels que TensorFlow ou PyTorch vers le format ONNX. Les modèles peuvent également être inclus dans les applications MQL5 et exécutés dans le terminal de trading MetaTrader 5. C'est une opportunité unique qui n'est offerte par personne d'autre.
L'un des outils les plus populaires pour convertir des modèles au format ONNX est ONNXMLToolsde Microsoft. ONNXMLTools peut être installé facilement. Pour plus de détails sur l'installation et des exemples de conversion de modèle, veuillez consulter la page du projet à l'adresse https://github.com/onnx/onnxmltools#install.
Pour exécuter un modèle déjà entraîné, vous devez utiliser ONNX Runtime. ONNX Runtime est un moteur multi-plateformes à hautes performances conçu pour exécuter des modèles ML exportés au format ONNX. Avec ONNX, les développeurs peuvent créer des modèles dans un cadre, puis les déployer facilement dans d'autres environnements. Cela offre de la flexibilité tout en simplifiant le processus de développement.
ONNX est un outil puissant pour les développeurs et les chercheurs en ML. Utilisez ces fonctionnalités pour développer et implémenter efficacement des modèles de trading à l'aide de MQL5.
Explorez les informations disponibles et les nouvelles approches pour travailler avec les modèles ML et partagez-les avec les membres de la MQL5.community. Nous avons trouvé des publications utiles sur ce sujet, qui peuvent vous aider à explorer et à démarrer avec cette nouvelle technologie prometteuse.