
Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
Sfrutta la potenza del Machine Learning con ONNX - Ron Dagdag
Sfrutta la potenza del Machine Learning con ONNX - Ron Dagdag
In questo video, Ron Dagdag approfondisce l'importanza dei framework di machine learning, in particolare ONNX, che facilita l'interoperabilità tra i framework di deep learning e la distribuzione. Descrive i modi per ottenere modelli ONNX, inclusa la conversione di modelli esistenti, l'addestramento di modelli con l'apprendimento automatico di Azure e l'utilizzo del servizio di visione personalizzato di Azure. Dagdag sottolinea la decisione se implementare modelli di machine learning nel cloud o sull'edge e suggerisce di sfruttare ONNX per rendere il processo più fluido. Inoltre, illustra il processo di utilizzo di ML.NET di Microsoft per creare un modello di machine learning e dimostra come incorporare il modello ONNX in un'applicazione utilizzando il runtime ONNX per l'inferenza. Dagdag esplora anche ONNX come standard aperto per l'apprendimento automatico, le sue varie piattaforme e linguaggi e gli strumenti per ridurre le dimensioni dei modelli.
Sfrutta la potenza del machine learning con ONNX | Ron Lyle Dagdag | Apprendimento automatico Conf42 2021
Sfrutta la potenza del machine learning con ONNX | Ron Lyle Dagdag | Apprendimento automatico Conf42 2021
In questo video, Ron Dagdag illustra i vantaggi dell'utilizzo di ONNX (Open Neural Network Exchange) come formato aperto per i modelli di machine learning, in particolare quando si distribuiscono modelli a diversi endpoint come telefoni o infrastrutture cloud. Copre gli scenari in cui la conversione di un modello in ONNX può essere utile, ad esempio prestazioni ridotte o la combinazione di modelli addestrati su framework diversi, e descrive come è possibile scaricare modelli popolari come RestNet nel formato ONNX. Inoltre, discute i vantaggi dell'esecuzione di modelli di machine learning sull'edge, nonché l'importanza di gestire i modelli registrandoli nel cloud e controllandone le versioni. Dimostra come convertire un modello in ONNX e come utilizzare il runtime ONNX in Python per l'inferenza e conclude sottolineando il ruolo di ONNX nel consentire a data scientist e ingegneri del software di lavorare insieme in modo efficace.
Inferenza in JavaScript con ONNX Runtime Web!
Inferenza in JavaScript con ONNX Runtime Web!
Il video illustra l'utilizzo di ONNX Runtime Web nel browser tramite un modello Next.js che offre un'interfaccia utente per eseguire l'inferenza su immagini preselezionate. Viene dimostrato il processo di conversione dei dati dell'immagine in un tensore utilizzando i valori RGB e la creazione delle dimensioni. Viene esplorata la funzione di supporto del modello, che passa i dati pre-elaborati alla sessione di inferenza ONNX utilizzando il percorso del modello, il provider di esecuzione e le opzioni della sessione. I feed per il modello vengono creati utilizzando il nome di input e l'oggetto tensore e vengono passati alla funzione session.run per ottenere i primi cinque risultati. Il primo risultato popola la visualizzazione dell'immagine mentre vengono fornite la configurazione del webpack e le istruzioni per l'inferenza lato server tramite ONNX Runtime Node.
Ron Dagdag - Creazione di reti neurali nel browser con ONNX
Ron Dagdag - Creazione di reti neurali nel browser con ONNX
In questo video, Ron Dagdag spiega come utilizzare il framework di machine learning ONNX per eseguire reti neurali in un browser. Discute le basi dell'apprendimento automatico, la creazione e l'implementazione di modelli ONNX e l'ambiente di runtime ONNX. Dagdag dimostra l'uso di ONNX con vari esempi, inclusa la previsione degli stipendi in base all'esperienza lavorativa e il rilevamento delle emozioni nelle immagini. Copre anche l'implementazione di modelli ONNX su diverse piattaforme, come Android e iOS, e mette in evidenza le risorse e le demo disponibili per sperimentare con ONNX. Dagdag incoraggia la sperimentazione con ONNX e sottolinea l'importanza di un'inferenza efficiente sulle piattaforme target utilizzando il runtime ONNX.
Far funzionare le reti neurali nel browser con ONNX - Ron Dagdag - NDC Melbourne 2022
Far funzionare le reti neurali nel browser con ONNX - Ron Dagdag - NDC Melbourne 2022
Ron Dagdag condivide la sua esperienza nel far funzionare le reti neurali nei browser con ONNX. Discute le basi della programmazione e come differisce dall'apprendimento automatico, la disponibilità di JavaScript e framework di apprendimento automatico e come i modelli di apprendimento automatico possono essere eseguiti su diversi dispositivi, inclusi telefoni, IoT e cloud. Introduce ONNX, un formato aperto per modelli di machine learning in grado di integrare modelli creati in diversi framework con applicazioni esistenti in diversi linguaggi di programmazione. Dagdag dimostra come creare, gestire e distribuire modelli ONNX, incorporando runtime ONNX, web assembly e tecnologie Web GL per eseguire modelli ONNX nei browser ottimizzando prestazioni, sicurezza e costi. Il video copre anche il punteggio di modelli pre-addestrati su dispositivi mobili, considerazioni sui costi e i vantaggi dell'esecuzione del rilevamento degli oggetti più vicino all'edge per l'elaborazione locale di grandi quantità di dati.
Linux Foundation Artificial Intelligence & Data Day - Riunione della comunità ONNX - 21 ottobre 2021
Emma Ning (Microsoft) ONNX Runtime Web per l'inferenza nel browser
001 ONNX 20211021 Ning ONNX Runtime Web per inferenza nel browser
Emma, product manager del team Microsoft AI Framework, presenta ONNX Runtime Web, una nuova funzionalità di ONNX Runtime che consente agli sviluppatori JavaScript di eseguire e distribuire modelli di machine learning in un browser, con due back-end, tra cui Web Assembly per CPU e WebGL per GPU. Il back-end dell'assembly Web può eseguire qualsiasi modello ONNX, sfruttare multi-threading e SIMD e supportare la maggior parte delle funzionalità supportate dal runtime ONNX nativo, mentre il back-end WebGL è una pura implementazione basata su JavaScript con API WebGL. Il relatore discute anche della compatibilità degli operatori ONNX con entrambi i back-end, fornisce frammenti di codice per la creazione di una sessione di inferenza e l'esecuzione di un modello e presenta un sito Web dimostrativo con diversi scenari di modelli di immagine nel browser basati sul modello MobileNet. Tuttavia, il relatore riconosce anche che c'è ancora spazio per migliorare le prestazioni del runtime Web ONNX e il consumo di memoria e per espandere gli operatori ONNX supportati.
Workshop W3C su web e machine learning estate 2020
ONNX.js - Una libreria Javascript per eseguire modelli ONNX nei browser e Node.js
ONNX.js - Una libreria Javascript per eseguire modelli ONNX nei browser e Node.js
ONNX.js è una libreria JavaScript che consente agli utenti di eseguire modelli ONNX nei browser e Node.js. Ottimizza il modello su CPU e GPU con varie tecniche e supporta la profilazione, la registrazione e il debug per una facile analisi. La libreria supporta tutti i principali browser e piattaforme e consente la parallelizzazione utilizzando web worker per prestazioni migliori su macchine multicore. Utilizzando WebGL per accedere alle funzionalità della GPU, fornisce significativi miglioramenti delle prestazioni e riduce il trasferimento dei dati tra CPU e GPU. Sebbene sia necessaria un'ulteriore ottimizzazione e supporto da parte dell'operatore, il relatore incoraggia i contributi della community per migliorare ONNX.js.
Come eseguire i modelli PyTorch nel browser con ONNX.js
Come eseguire i modelli PyTorch nel browser con ONNX.js
Il video spiega i vantaggi dell'esecuzione di un modello PyTorch in un browser utilizzando JavaScript e ONNX.js, inclusi tempi di risposta migliori, scalabilità, disponibilità offline e maggiore privacy degli utenti. Il video illustra anche il processo di conversione di un modello PyTorch in un modello ONNX, caricandolo in una sessione ONNX.js ed eseguendo l'inferenza nel browser. Vengono discussi anche la preparazione dei dati, il debug e gli aumenti e il relatore dimostra come rendere il modello più robusto utilizzando tecniche di aumento dei dati. Il video fornisce un codice di esempio e un sito Web dimostrativo per consentire agli utenti di provare il modello da soli.
Classificazione delle cifre sulla CPU con demo ONNX Runtime
Classificazione delle cifre sulla CPU con demo ONNX Runtime
Open Neural Network Exchange (ONNX) fornisce un formato open source per modelli di deep learning e machine learning. Possiamo addestrare i nostri modelli in qualsiasi framework preferiamo e quindi convertire il modello in formato ONNX. Con ONNX Runtime di Microsoft, possiamo eseguire una sessione di inferenza con modelli onnx su qualsiasi ambiente che ci offre un'implementazione leggermente più rapida. Ecco una semplice dimostrazione dello stesso. Il modello viene addestrato a riconoscere le cifre utilizzando il set di dati MNIST con PyTorch. Sto eseguendo una sessione di inferenza su CPU Linux.
https://github.com/NagarajSMurthy/Digit-recognizer
Miliardi di inferenze NLP sulla JVM utilizzando ONNX e DJL
Miliardi di inferenze NLP sulla JVM utilizzando ONNX e DJL
Il CTO di una società di media intelligence discute di come usano JVM e DJL e Hugging Face per la tokenizzazione NLP nella pipeline di machine learning per estrarre il panorama dei media per vari casi d'uso. Man mano che le funzionalità del loro prodotto si sono spinte verso di essa, il loro sistema di apprendimento automatico e modellazione è diventato una parte essenziale per mantenere tutto in esecuzione poiché hanno raggiunto una scala in cui la CPU non poteva più essere sufficiente. Sono passati dall'utilizzo di un modello a virgola mobile a 32 bit a 16 bit, che ha portato a un aumento dell'efficacia del 3%, ma hanno riscontrato errori di conversione e rare perdite di memoria durante il processo, che hanno risolto sostituendo diverse implementazioni. Hanno investito in robustezza aggiungendo CI basato su GPU e impostando uno stack logico Prometheus avanzato che monitora la latenza di varie inferenze e la latenza di tokenizzazione. I loro piani futuri includono il miglioramento dell'efficienza della GPU e l'aggiunta di più modelli al sistema creando una configurazione multi-GPU.