
Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
Netron ist ein Tool zum Anzeigen von Modellen für neuronale Netzwerke, Deep Learning und maschinelles Lernen
Kurzer Blick in Netron
Kurzer Blick in Netron
Im Video gibt der Moderator einen Überblick über Netron, ein Tool zum Anzeigen und Analysieren von Modellen für maschinelles Lernen . Netron unterstützt verschiedene Formate und kann auf mehreren Plattformen installiert werden. Der Moderator demonstriert, wie man Netron startet und durch mehrere Beispielmodelle navigiert, wobei er die Fähigkeiten und Einschränkungen des Tools hervorhebt. Während Netron für die Erforschung einfacherer Netzwerkarchitekturen nützlich ist, schlägt der Moderator vor, dass es von zusätzlichen Funktionen zur Visualisierung komplexerer Modelle profitieren könnte. Insgesamt empfiehlt der Referent Netron als hilfreiches Tool zum Untersuchen und Verstehen von Machine-Learning-Modellen.
Netron - Netzwerkvisualisierungstool | Maschinelles Lernen | Datenmagie
Netron - Netzwerkvisualisierungstool | Maschinelles Lernen | Datenmagie
Netron ist eine Python-Bibliothek, die Benutzern hilft, die Struktur und Parameter von Deep-Learning-Modellen visuell zu erkunden und zu untersuchen. Es ist eine Open-Source-Bibliothek, die Beispielmodelle für die Analyse bereitstellt und einen einfachen Installationsprozess hat. Mit nur zwei Codezeilen können Benutzer Netron installieren und damit die neuronale Netzwerkstruktur, Aktivierungsfunktionen, Pooling-Schichten, Faltungsschichten und alle Attribute visualisieren, die auf jeder Schicht eines bestimmten maschinellen Lernmodells übergeben werden. Netron bietet eine benutzerfreundliche Oberfläche, mit der Benutzer Visualisierungen als PNG-Dateien exportieren und verschiedene Funktionen und Optionen erkunden können.
PyTorch, TensorFlow, Keras, ONNX, TensorRT, OpenVINO, KI-Modelldateikonvertierung
[Lernvideo] PyTorch, TensorFlow, Keras, ONNX, TensorRT, OpenVINO, KI-Modelldateikonvertierung
Der Sprecher im Video erörtert die Vorteile und Kompromisse verschiedener KI-Frameworks wie PyTorch, TensorFlow, Keras, ONNX, TensorRT und OpenVINO und empfiehlt PyTorch als bevorzugtes Framework für Training und Datenkonvertierung. Der Referent erklärt den Konvertierungsprozess, einschließlich der Konvertierung von PyTorch-Modellen in ONNX und dann in TensorRT oder OpenVINO, und warnt vor der Verwendung von TensorFlow PB-Datei und Cafe. Der Referent erörtert auch die Bedeutung der richtigen Einstellung des Gleitkommaformats und empfiehlt die Verwendung von FP 32 für die meisten Modelle. Das Video bietet Beispiele für die Modellumwandlung und ermutigt die Zuschauer, die offizielle Website für weitere Lehrvideos zu besuchen.
Wie wir ONNX in Zetane verwenden, um Machine-Learning-Projekte schneller und mit weniger Trial-and-Error abzuschließen
Wie wir ONNX in Zetane verwenden, um Machine-Learning-Projekte schneller und mit weniger Trial-and-Error abzuschließen
Patrick Saitama, Mitbegründer und CTO von Zetane Systems, erläutert den Wert der Verwendung von ONNX im neuen Produkt seines Unternehmens, um Probleme im Zusammenhang mit dem Black-Box-Problem der KI anzugehen. Die Engine von Zetane ermöglicht die Exploration und Inspektion der ONNX-Modelle, liefert Einblicke in die Interaktion des Modells mit Daten und führt zu entscheidenderen Strategien zur Verbesserung seiner Qualität. Das gegebene Beispiel zeigt, wie Zetanes Motor dabei half, ein autonomes Zugmodell zu debuggen, indem er die Funkschicht untersuchte und mehr Bilder von Tunneln hinzufügte, die als keine Hindernisse gekennzeichnet waren. Zetane enthält auch Tools zur dynamischen Untersuchung interner Tensoren und zur Erstellung von Schnappschüssen des Modells für spätere Untersuchungen. Darüber hinaus ermöglicht die neue Engine von Zetane die Installation größerer Modelle wie YOLOv3.
Was ist neu in der ONNX-Laufzeit
Was ist neu in der ONNX-Laufzeit
In diesem Vortrag werden Highlights der ONNX Runtime 1.10-1.12-Versionen vorgestellt, einschließlich Details zu bemerkenswerten Leistungsverbesserungen, Funktionen und Plattformen, einschließlich Mobil und Web. Ryan Hill ist seit 4 Jahren im AI Frameworks-Team, wo er hauptsächlich an Operator-Kernels, C-APIs und dynamisch ladenden Ausführungsanbietern gearbeitet hat. Davor arbeitete er im Office PowerPoint-Team, wo seine am häufigsten gesehene Arbeit viele der Diashow-Folienübergänge sind. Zum Spaß versucht er gerne, die neuesten C++-Features zu verwenden und dabei auf interne Compilerfehler zu stoßen.In dem Video erläutert Softwareentwickler Ryan Hill die verschiedenen Funktionen und Aktualisierungen von ONNX Runtime, einer weit verbreiteten plattformübergreifenden Laufzeit, die auf mehrere CPU-Architekturen abzielen kann. Er hebt die neuesten Funktionen hervor, die ONNX Runtime hinzugefügt wurden, wie z. B. die Möglichkeit, op-Kernel direkt aufzurufen, und Leistungsverbesserungen wie Transpositionsoptimierer und Small-Size-Optimierung. Hill spricht auch über die Ausführungsanbieter von ONNX Runtime, die eine optimale Leistung auf verschiedener Hardware ermöglichen, und die Veröffentlichung von Mobilpaketen, die die NHWC-Konvertierung zur Laufzeit unterstützen. Das Video behandelt auch layoutabhängige Operatorunterstützung, Xamarin-Unterstützung für plattformübergreifende Apps, ONNX Runtime-Web und die ONNX Runtime-Erweiterungsbibliothek, die sich auf die Vor- und Nachbearbeitung von Modellen konzentriert, einschließlich Textkonvertierungen und mathematische Operationen, und derzeit auf NLP, Vision und Textdomänen.
v1.12.0 ONNX Runtime – Release-Überprüfung
v1.12.0 ONNX Runtime – Release-Überprüfung
Die Version v1.12.0 der ONNX Runtime (ORT) konzentriert sich auf Inferenzen, beinhaltet aber auch kontinuierliche Investitionen in Schulungen, wobei die Integration mit Hugging Face Optimum zur Beschleunigung mehrerer Hugging Face-Modelle führt. Zu den neuen Funktionen gehört die Möglichkeit, native ORT-Operationen in benutzerdefinierten Operationen zu verwenden und einen nativen oder Laufzeitoperator direkt aufzurufen, ohne ein Diagramm zu erstellen. Die Version umfasst auch Unterstützung für .NET 6 und die Multi-Platform App UI (MAUI) sowie Ausführungsanbieter für bestimmte Plattformen wie die Neural Processing Unit auf Android und Core ML auf iOS. Leistungsverbesserungen wurden vorgenommen, indem die Speicherzuweisungen während der Inferenz reduziert und unnötige Protokollierung eliminiert wurden. Zukünftige Verbesserungen zur Verbesserung der Cache-Lokalität und der Nutzung des Thread-Pools sind geplant.
v1.13 ONNX Runtime – Release-Überprüfung
v1.13 ONNX Runtime – Release-Überprüfung
Version 1.13 der ONNX-Laufzeit wurde kürzlich mit Sicherheitspatches, Fehlerbehebungen und Leistungsverbesserungen veröffentlicht. Das Update konzentriert sich auf die Optimierung von Transformer-Modellen für die GPU-Quantisierung und fügt Unterstützung für direkte ML-Ausführungsanbieter hinzu, die geräteunabhängig sind und über 150 Operatoren unterstützen. Darüber hinaus enthält die Version Aktualisierungen der mobilen ORT-Infrastruktur für die Kompatibilität mit neuen EPS, wie dem XNN-Paket. Die Verwendung von Quantisierung zur Verbesserung der Leistung von Transformer-basierten Modellen wird ebenfalls diskutiert, mit der Optimierung des CUDA-Ausführungsanbieters zur Ausführung des quantisierten BERT-Modells und der Verwendung von quantisiertem bewusstem Training zur Maximierung der Genauigkeit bei gleichzeitiger Optimierung der ONNX-Laufzeitausführungs-Engine.
Was ist ONNX Runtime (ORT)?
Was ist ONNX Runtime (ORT)?
ONNX Runtime (ORT) ist eine Bibliothek, die Machine-Learning-Inferenzen optimiert und beschleunigt, sodass Benutzer ihre Modelle in jeder unterstützten Machine-Learning-Bibliothek trainieren, in das ONNX-Format exportieren und Inferenzen in ihrer bevorzugten Sprache durchführen können. Der Redner hebt ein Beispiel für die Durchführung von Inferenzen mit PyTorch mit ONNX Runtime hervor und weist darauf hin, dass Benutzer ONNXRuntime.ai besuchen können, um die verschiedenen APIs und Tools zu erkunden, die für ihre bevorzugte Einrichtung erforderlich sind.
2020 ONNX-Roadmap-Diskussion Nr. 1 20200903
2020 ONNX-Roadmap-Diskussion Nr. 1 20200903
Das ONNX-Roadmap-Dokument, das öffentlich zugänglich ist, ist ein zentrales Thema in diesem Video. Die Diskussion befasst sich mit der Erweiterung von ONNX auf einer Pipeline für maschinelles Lernen, einschließlich der Entwicklung von Daten, der Vorverarbeitung und der Erweiterung von ONNX auf horizontale Pipelines wie QFLO. Zu den Vorschlägen der Mitwirkenden gehören die Unterstützung von Datenrahmen und die Einführung neuer Operatoren für die Vorverarbeitung. Die Referenten diskutieren auch die Einführung des Python-Daten-API-Standards, um die Unterstützung von ONNX zu erweitern und die Interoperabilität zwischen anderen Bibliotheken zu gewährleisten. Darüber hinaus erörtern die Referenten die Integration von ONNX in Kubernetes und Kubeflow, um die ML-Entwicklung für Benutzer zu optimieren. Die Gruppe plant, die Auswirkungen des Vorschlags weiter zu bewerten, und begrüßt Rückmeldungen über die Roadmap oder den Lenkungsausschuss.