
Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
Netron è uno strumento per la visualizzazione di modelli di reti neurali, deep learning e machine learning
Una rapida occhiata a Netron
Una rapida occhiata a Netron
Nel video, il presentatore fornisce una panoramica di Netron, uno strumento per la visualizzazione e l'analisi dei modelli di machine learning . Netron supporta vari formati e può essere installato su più piattaforme. Il presentatore dimostra come avviare Netron e navigare attraverso diversi modelli di esempio, evidenziando le capacità ei limiti dello strumento. Sebbene Netron sia utile per esplorare architetture di rete più semplici, il presentatore suggerisce che potrebbe trarre vantaggio da funzionalità aggiuntive per la visualizzazione di modelli più complessi. Nel complesso, il relatore consiglia Netron come strumento utile per esaminare e comprendere i modelli di machine learning.
Netron - Strumento di visualizzazione della rete | Apprendimento automatico | Magia dei dati
Netron - Strumento di visualizzazione della rete | Apprendimento automatico | Magia dei dati
Netron è una libreria Python che aiuta gli utenti a esplorare visivamente ed esaminare la struttura e i parametri dei modelli di deep learning. È una libreria open source che fornisce modelli di esempio per l'analisi e ha un semplice processo di installazione. Con solo due righe di codice, gli utenti possono installare Netron e utilizzarlo per visualizzare la struttura della rete neurale, le funzioni di attivazione, i livelli di pooling, i livelli convoluzionali e tutti gli attributi passati a ciascun livello di un determinato modello di machine learning. Netron fornisce un'interfaccia di facile utilizzo che consente agli utenti di esportare visualizzazioni come file PNG ed esplorare diverse funzionalità e opzioni.
PyTorch, TensorFlow, Keras, ONNX, TensorRT, OpenVINO, conversione file modello AI
[Video didattico] PyTorch, TensorFlow, Keras, ONNX, TensorRT, OpenVINO, conversione file modello AI
Il relatore nel video discute i vantaggi e i compromessi di diversi framework AI, come PyTorch, TensorFlow, Keras, ONNX, TensorRT e OpenVINO, e consiglia PyTorch come framework preferito per l'addestramento e la conversione dei dati. Il relatore spiega il processo di conversione, inclusa la conversione dei modelli PyTorch in ONNX e quindi in TensorRT o OpenVINO, e mette in guardia contro l'utilizzo di TensorFlow PB file e Cafe. Il relatore discute anche l'importanza di impostare correttamente il formato in virgola mobile e consiglia di utilizzare FP 32 per la maggior parte dei modelli. Il video fornisce esempi di conversione del modello e incoraggia gli spettatori a visitare il sito Web ufficiale per altri video educativi.
Come utilizziamo ONNX in Zetane per completare i progetti di machine learning più velocemente con meno tentativi ed errori
Come utilizziamo ONNX in Zetane per completare i progetti di machine learning più velocemente con meno tentativi ed errori
Patrick Saitama, co-fondatore e CTO di Zetane Systems, discute il valore dell'utilizzo di ONNX nel nuovo prodotto della sua azienda per affrontare le questioni relative al problema della scatola nera dell'IA. Il motore di Zetane consente l'esplorazione e l'ispezione dei modelli ONNX, fornendo approfondimenti sull'interazione del modello con i dati e portando a strategie più decisive per migliorarne la qualità. L'esempio fornito mostra come il motore di Zetane ha aiutato a eseguire il debug di un modello di treno autonomo ispezionando il livello radio e aggiungendo più immagini di tunnel etichettati come non ostacoli. Zetane include anche strumenti per l'ispezione dinamica dei tensori interni e l'acquisizione di istantanee del modello per indagini successive. Inoltre, il nuovo motore di Zetane consente l'installazione di modelli più grandi come YOLOv3.
Novità del runtime ONNX
Novità del runtime ONNX
Questo discorso condividerà i punti salienti delle versioni ONNX Runtime 1.10-1.12, inclusi dettagli su notevoli miglioramenti delle prestazioni, funzionalità e piattaforme, inclusi dispositivi mobili e Web. Ryan Hill è stato con il team di AI Frameworks negli ultimi 4 anni, dove ha lavorato principalmente su kernel di operatori, API C e fornitori di esecuzione a caricamento dinamico. In precedenza ha lavorato nel team di Office PowerPoint, dove il suo lavoro più visto è rappresentato da molte delle transizioni di diapositive della presentazione. Per divertimento gli piace provare a utilizzare le ultime funzionalità C++ e riscontrare errori interni del compilatore.Nel video, l'ingegnere del software Ryan Hill discute le varie funzionalità e gli aggiornamenti di ONNX Runtime, un runtime multipiattaforma ampiamente utilizzato che può essere indirizzato a più architetture di CPU. Mette in evidenza le ultime funzionalità aggiunte a ONNX Runtime, come la possibilità di chiamare direttamente i kernel operativi e miglioramenti delle prestazioni come l'ottimizzatore di trasposizione e l'ottimizzazione delle dimensioni ridotte. Hill parla anche dei fornitori di esecuzione di ONNX Runtime, che consentono prestazioni ottimali su vari hardware, e del rilascio di pacchetti mobili che supportano la conversione NHWC in fase di esecuzione. Il video copre anche il supporto dell'operatore sensibile al layout, il supporto Xamarin per app multipiattaforma, ONNX Runtime Web e la libreria di estensioni ONNX Runtime che si concentra sul lavoro di pre-post-elaborazione del modello, comprese le conversioni di testo e le operazioni matematiche, e attualmente si concentra su PNL, visione e domini testuali.
Runtime ONNX v1.12.0 - Revisione della versione
Runtime ONNX v1.12.0 - Revisione della versione
La versione v1.12.0 di ONNX Runtime (ORT) si concentra sull'inferenza ma include anche continui investimenti nella formazione, con l'integrazione con Hugging Face Optimum che ha portato all'accelerazione di diversi modelli Hugging Face. Le nuove funzionalità includono la possibilità di utilizzare operazioni ORT native in operazioni personalizzate e chiamare direttamente un operatore nativo o di runtime senza creare un grafico. La versione include anche il supporto per .NET 6 e l'interfaccia utente dell'app multipiattaforma (MAUI) e provider di esecuzione per piattaforme specifiche come Neural Processing Unit su Android e Core ML su iOS. Sono stati apportati miglioramenti alle prestazioni riducendo le allocazioni di memoria durante l'inferenza ed eliminando la registrazione non necessaria. Sono previsti miglioramenti futuri per migliorare la località della cache e l'utilizzo del pool di thread.
Runtime ONNX v1.13 - Revisione della versione
Runtime ONNX v1.13 - Revisione della versione
La versione 1.13 del runtime ONNX è stata recentemente rilasciata con patch di sicurezza, correzioni di bug e miglioramenti delle prestazioni. L'aggiornamento si concentra sull'ottimizzazione dei modelli Transformer per la quantizzazione GPU e aggiunge il supporto per i provider di esecuzione ML diretta che sono indipendenti dal dispositivo e supportano oltre 150 operatori. Inoltre, la versione include aggiornamenti all'infrastruttura mobile ORT per la compatibilità con i nuovi EPS, come il pacchetto XNN. Viene discusso anche l'uso della quantizzazione per migliorare le prestazioni dei modelli basati su Transformer, con l'ottimizzazione del provider di esecuzione CUDA per eseguire il modello BERT quantizzato e l'uso dell'addestramento consapevole quantizzato per massimizzare la precisione ottimizzando al contempo il motore di esecuzione del runtime ONNX.
Cos'è ONNX Runtime (ORT)?
Cos'è ONNX Runtime (ORT)?
ONNX Runtime (ORT) è una libreria che ottimizza e accelera l'inferenza di machine learning, consentendo agli utenti di addestrare i propri modelli in qualsiasi libreria di machine learning supportata, esportare in formato ONNX ed eseguire l'inferenza nella lingua preferita. Il relatore evidenzia un esempio di esecuzione dell'inferenza utilizzando PyTorch con ONNX Runtime e sottolinea che gli utenti possono visitare ONNXRuntime.ai per esplorare le diverse API e gli strumenti richiesti per la loro configurazione preferita.
Discussione sulla roadmap ONNX 2020 n. 1 20200903
Discussione sulla roadmap ONNX 2020 n. 1 20200903
Il documento della roadmap ONNX, che è stato aperto ai contributi del pubblico, è un argomento chiave in questo video. La discussione riguarda l'estensione di ONNX su una pipeline di machine learning, inclusa l'evoluzione dei dati, la pre-elaborazione e l'estensione di ONNX su pipeline orizzontali come QFLO. I suggerimenti avanzati dai contributori includono il supporto di frame di dati e l'adozione di nuovi operatori per la pre-elaborazione. I relatori discutono anche dell'adozione dello standard Python data API per espandere il supporto di ONNX e garantire l'interoperabilità tra le altre librerie. Inoltre, i relatori discutono dell'integrazione di ONNX in Kubernetes e Kubeflow per semplificare lo sviluppo ML per gli utenti. Il gruppo prevede di continuare a valutare l'impatto della proposta e accoglie con favore il feedback attraverso la tabella di marcia o il comitato direttivo.