Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
Angewandtes maschinelles Lernen mit ONNX Runtime
Angewandtes maschinelles Lernen mit ONNX Runtime
Jennifer Looper, Principal Education Cloud Advocate bei Microsoft, erörtert in diesem Video die Konvergenz von App-Erstellung, maschinellem Lernen und Data Science. Sie empfiehlt die Entwicklung intelligenter Apps für das Web und untersucht verschiedene JavaScript-APIs, darunter ml5.js, Magenta.js, PoseNet und Brain.js, um maschinelle Lerntechnologie in Apps zu integrieren. Looper betont die Nützlichkeit von scikit-learn für klassisches maschinelles Lernen und empfiehlt es als leistungsstarkes Tool ohne die schwere Lösung neuronaler Netze. Sie erörtert auch die Onnx-Laufzeit, die das Training und die Inferenz optimiert, indem sie einen gemeinsamen Satz von Operatoren zum Erstellen von Modellen für maschinelles Lernen und Deep Learning definiert, und bezieht Daten von Kaggle, um den Prozess der Durchführung einer grundlegenden Klassifizierungsaufgabe mithilfe von überwachtem maschinellem Lernen zu erklären. Der Referent demonstriert dann, wie man mithilfe von Modellen für maschinelles Lernen eine Empfehlungsmaschine erstellt, und schlägt vor, die Online-Ressourcen von Microsoft zu besuchen, um mehr über maschinelles Lernen zu erfahren. Sie kommt zu dem Schluss, dass Onnx Runtime für Anfänger als Teil ihres Lehrplans oder für alle geeignet ist, die mehr über maschinelles Lernen erfahren möchten.
Bringen Sie die Leistung von ONNX wie nie zuvor zu Spark
Bringen Sie die Leistung von ONNX wie nie zuvor zu Spark
In diesem Video erklärt Shivan Wang von Huawei, wie man die Leistung von ONNX für Rückschlüsse auf Spark bringt. Er erörtert die Herausforderungen bei der Bereitstellung von DL-Modellen auf Spark und wie die Spark-Community einen Vorschlag namens Spip initiiert hat, um den Prozess zu vereinfachen. Der Redner erörtert auch den KI-Prozessor von Huawei, Ascent und das Ascent-KI-Ökosystem, das mehrere Ascent-Prozessormodelle und Atlas-Hardware umfasst. Er schlägt vor, Con als neuen Ausführungsanbieter in der nächsten Laufzeit hinzuzufügen, um ONNX-Modelle direkt auf Ascent-Hardware zu verwenden, ohne dass eine Modellübersetzung erforderlich ist. Abschließend erwähnt er, dass der POC-Code, um die Leistung von ONNX auf Spark zu bringen, fast fertig ist, und begrüßt interessierte Benutzer, eine Nachricht zu hinterlassen, um sie zu diskutieren und möglicherweise Ressourcen für Testzwecke bereitzustellen.
Builders Build #3 – Von der Zusammenarbeit zur Produktion mit ONNX
Builders Build #3 – Von der Zusammenarbeit zur Produktion mit ONNX
Das Video veranschaulicht den Prozess der Bereitstellung eines Projekts von Colab in der Produktion mithilfe von ONNX. Der Referent behandelt verschiedene Aspekte wie die Vorverarbeitung von Signalen, das Ändern von Code für die Bereitstellung, das Erstellen eines Handlers auf AWS Lambda, das Akzeptieren von Audioeingaben auf einer Website, das Hochladen einer Funktion in S3 und das Bereitstellen von Abhängigkeiten für ONNX. Trotz einiger Schwierigkeiten stellt der Redner sein Modell erfolgreich mit AWS bereit und schlägt vor, dass er für zukünftige Schritte einen Browser zum Laden von Base64-Dateiobjekten oder Sounddatei-Lesebits verwenden kann.
Darüber hinaus zeigt das Video die Verwendung des SimCLR-Modells für kontrastives Lernen in Audio, das Erstellen eines Katalogs von Songs durch Einspeisen in das Modell und das Trainieren mit PyTorch, um bei k = 1 null Verlust und Rückruf zu erreichen. Der Referent diskutiert die Herausforderungen beim Einsatz von PyTorch in der Produktion und schlägt ONNX als Lösung vor. Das Video zeigt, wie Sie das PyTorch-Modell im ONNX-Format exportieren und laden und Inferenzen ausführen. Es zeigt auch, wie Audiodateien mit Torch Audio- und Numpy-Bibliotheken verarbeitet werden, und behebt Probleme beim Einrichten eines PyTorch-Modells für die Bereitstellung. Das Video bietet Einblicke in die Verlagerung von Modellen aus der Entwicklung in Colab-Notebooks in Produktionsumgebungen.
Kombination der Leistung von Optimum, OpenVINO™, ONNX Runtime und Azure
Kombination der Leistung von Optimum, OpenVINO™, ONNX Runtime und Azure
Das Video zeigt die Kombination von Optimum, OpenVINO, ONNX Runtime und Azure, um den Arbeitsablauf der Entwickler zu vereinfachen und die Genauigkeit und Geschwindigkeit ihrer Modelle zu verbessern. Die Referenten demonstrieren die Verwendung von Hilfsfunktionen, ONNX Runtime und dem OpenVINO Execution Provider zur Optimierung von Deep-Learning-Modellen. Sie zeigen auch, wie man sich umarmende Gesichtsmodelle mithilfe von Quantisierung im Neural Network Compression Framework optimiert, und veranschaulichen den Trainings- und Inferenzprozess mit Azure ML, Optimum, ONNX Runtime und OpenVINO. Die Demonstration unterstreicht die Leistungsfähigkeit dieser Tools bei der Verbesserung der Leistung von Modellen bei gleichzeitiger Minimierung des Genauigkeitsverlusts.
Schnellere Inferenz von ONNX-Modellen | Edge-Innovationsreihe für Entwickler | Intel-Software
Schnellere Inferenz von ONNX-Modellen | Edge-Innovationsreihe für Entwickler | Intel-Software
Der OpenVINO Execution Provider für ONNX Runtime wird in diesem Video besprochen. Es ist ein plattformübergreifender Modellbeschleuniger für maschinelles Lernen, der die Bereitstellung von Deep-Learning-Modellen auf einer Reihe von Intel-Rechengeräten ermöglicht. Durch die Verwendung des für Intel-Hardware optimierten OpenVINO-Toolkits und die Festlegung des Anbieters als OpenVINO Execution Provider im Code können Entwickler die Inferenz von ONNX-Modellen mit fortschrittlichen Optimierungstechniken beschleunigen. Das Video betont die Einfachheit der Modifikation, die erforderlich ist, um die besprochenen Tools zu verwenden.
Schnellere und leichtere Modellinferenz mit ONNX Runtime von der Cloud zum Client
Schnellere und leichtere Modellinferenz mit ONNX Runtime von der Cloud zum Client
In diesem Video erklärt Emma von der Microsoft Cloud and AI Group Open Neural Network Exchange (ONNX) und ONNX Runtime, eine Hochleistungs-Engine zum Inferieren von ONNX-Modellen auf unterschiedlicher Hardware. Emma erläutert den erheblichen Leistungsgewinn und die Reduzierung der Modellgröße, die die ONNX Runtime INT8-Quantisierung bieten kann, sowie die Bedeutung der Genauigkeit. Sie demonstriert den End-to-End-Workflow der ONNX Runtime INT8-Quantisierung und präsentiert die Ergebnisse eines Basismodells mit PyTorch-Quantisierung. Darüber hinaus erläutert Emma die Fähigkeit von ONNX Runtime, die Modellinferenz von der Cloud zum Client zu optimieren, und wie es standardmäßig eine Größe von weniger als 300 Kilobyte sowohl auf Android- als auch auf iOS-Plattformen erreichen kann.
Schnelle T5-Transformatormodell-CPU-Inferenz mit ONNX-Konvertierung und -Quantisierung
Schnelle T5-Transformatormodell-CPU-Inferenz mit ONNX-Konvertierung und -Quantisierung
Durch die Konvertierung des T5-Transformatormodells in ONNX und die Implementierung der Quantisierung ist es möglich, die Modellgröße um das Dreifache zu verringern und die Inferenzgeschwindigkeit auf das Fünffache zu erhöhen. Dies ist besonders nützlich, um ein Fragegenerierungsmodell wie T5 auf einer CPU mit einer Latenzzeit von weniger als einer Sekunde bereitzustellen. Zusätzlich bietet die Gradio-App eine optisch ansprechende Oberfläche für das Modell. Das T5-Transformatormodell von Huggingface wird verwendet, und die FastT5-Bibliothek wird für ONNX und Quantisierung verwendet. Die Implementierung dieser Optimierungen kann zu erheblichen Kosteneinsparungen bei Produktionsbereitstellungen dieser Systeme führen.
Azure AI und ONNX Runtime
Azure AI und ONNX Runtime
Der Text behandelt verschiedene Aspekte des maschinellen Lernens und seines Einsatzes. Es behandelt die Entwicklung der Datenwissenschaft, die Herausforderungen der Framework-Kompatibilität, die Verwendung von Azure AI und ONNX Runtime für die Modellbereitstellung, die Erstellung von ML-Umgebungen und die Einschränkungen von ONNX Runtime. Der Referent betont die Standardisierung von ONNX und die Unterstützung mehrerer Frameworks, was die Optimierung für unterschiedliche Hardware erleichtert. Das Video erwähnt auch das Fehlen eines Benchmarks für Hardwarepräferenzen und die Notwendigkeit, mehrere Tools zu verwenden, um die Einschränkungen von ONNX zu überwinden.
Stellen Sie maschinelles Lernen mit ONNX überall bereit. Python-SKLearn-Modell, das in einer Azure ml.net-Funktion ausgeführt wird
Stellen Sie maschinelles Lernen mit ONNX überall bereit. Python-SKLearn-Modell, das in einer Azure ml.net-Funktion ausgeführt wird
Das Video zeigt, wie die ONNX-Laufzeit die Bereitstellung von Modellen für maschinelles Lernen, die in verschiedenen Sprachen und Frameworks erstellt wurden, vereinfacht und standardisiert. Es demonstriert den Prozess des Verpackens eines Python-Scikit-Learn-Modells in ein ONNX-Modell und dessen Bereitstellung in einer Azure ML .NET-Funktion. Das Video hebt hervor, dass die Azure-Funktion einfach über eine HTTP-POST-Anforderung ausgelöst werden kann, was den Aufruf von jeder Anwendung oder Website erleichtert, und unabhängig von der zum Erstellen des maschinellen Lernmodells verwendeten Sprache in ein ONNX-Modell konvertiert werden kann über ML.NET bereitgestellt, um konsistent ausgeführt zu werden.
Stellen Sie Modelle für maschinelles Lernen (TensorFlow/Caffe2/ONNX) bereit – schnell und einfach
Stellen Sie Modelle für maschinelles Lernen (TensorFlow/Caffe2/ONNX) bereit – schnell und einfach
Das Video zeigt, wie Transfer Learning zum Klassifizieren von Bildern verwendet werden kann und wie das Bildklassifizierungsmodell mithilfe von Python und TensorFlow in eine Endbenutzeranwendung integriert werden kann. Der Referent zeigt anhand eines Anwendungsbeispiels aus dem Autohandel, welche Herausforderungen entstehen, wenn Fotos nicht aus der erforderlichen Perspektive hochgeladen werden und Beschriftungen manuell geprüft werden müssen, was zu Langeweile und Ineffizienz führt. Er erklärt, wie man diese Herausforderungen überwinden kann, indem man ein bestehendes neuronales Netzwerk trainiert, um Fotoperspektiven mit der Transfer-Lerntechnik zu erkennen. Anschließend zeigt er, wie das Modell mithilfe des Open-Source-Projekts GraphPipe in der Oracle-Cloud getestet und bereitgestellt wird. Abschließend betont der Referent, wie wichtig es ist, Machine-Learning-Modelle aus der Laborphase in die Produktionsphase zu bringen.