Ticaret fırsatlarını kaçırıyorsunuz:
- Ücretsiz ticaret uygulamaları
- İşlem kopyalama için 8.000'den fazla sinyal
- Finansal piyasaları keşfetmek için ekonomik haberler
Kayıt
Giriş yap
Gizlilik ve Veri Koruma Politikasını ve MQL5.com Kullanım Şartlarını kabul edersiniz
Hesabınız yoksa, lütfen kaydolun
Uç ve Bulutta Hibrit Çıkarım için ONNX Çalışma Zamanı Azure EP
Uç ve Bulutta Hibrit Çıkarım için ONNX Çalışma Zamanı Azure EP
ONNX Runtime ekibi, cihaz bağlantı sorunlarını ortadan kaldıran ve geliştiricilerin optimize ettikleri bulut modeline geçmelerine olanak tanıyan Azure EP ile geliştiricilerin hem uç hem de bulut bilgi işlem için tek bir API kullanmasını sağlayan hibrit dünyaya ilk adımlarını attı. , maliyet tasarrufu ve gecikmeyi azaltır. Bu yeni özellik, geliştiricilerin uygulama mantığını güncellemelerine ve Azure EP aracılığıyla hangi yolu seçeceklerini seçmelerine olanak tanıyarak daha fazla yetenek ve güç sunar. Ekip, alt sunucuların ve nesne algılama modellerinin devreye alınmasının yanı sıra uç noktanın nasıl test edileceğini ve Onnx Runtime Azure'un nasıl kolayca yapılandırılacağını gösteriyor. Sunum yapan kişiler ayrıca yerel ve uzak işleme arasında geçiş yapma becerisini ve daha düşük ve daha yüksek performanslı modeller de dahil olmak üzere potansiyel kullanım durumlarını tartışırlar. ONNX Runtime Azure EP, önceden yüklenebilir ve dağıtım için gerekli paketlerle kolayca yapılandırılabilir, bu da yazılımın kullanım kolaylığına katkıda bulunur.
Bir ONNX Modelinin Pratik Eğitim Sonrası Niceleme
Bir ONNX Modelinin Pratik Eğitim Sonrası Niceleme
Video, bir TensorFlow modelinin boyutunu bir ONNX nicelemeli modele indirgemek için nicelemenin nasıl uygulanacağını tartışır. ONNX modeli, boyut olarak önemli ölçüde daha küçüktür ve bir CPU üzerinde daha hızlı çalıştırılabilir. Yazar, dinamik nicelemenin nasıl uygulanacağına ve CPU hızının nasıl kontrol edileceğine ilişkin kod parçacıkları ve talimatlar sağlar.
Video, doğrulukta düşüşe yol açabileceğini kabul ederken, daha hızlı ve daha hafif hale getirmek için bir makine öğrenimi modelini niceleme sürecini gösterir. ONNX ve TensorFlow modelleri nicelleştirilmiş bir modelle karşılaştırıldı ve ikincisinin daha hızlı ve daha hafif olduğu görüldü. Ancak kuantize model, GPU kullanımından diğer modeller kadar fayda sağlamaz. Kuantize modelin doğruluğu daha sonra değerlendirilir ve sadece hafif bir düşüş olduğu bulunur. ONNX modellerini görselleştirme süreci de Loot Rodas Neutron uygulamasının kullanımıyla tartışılıyor. Genel süreç, doğrulukta minimum kayıpla model boyutunun bir gigabayttan 83 megabayta düşürülmesine neden olur.
QONNX: ONNX'te keyfi-kesinlikte nicelenmiş NN'leri temsil etmek için bir teklif
QONNX: ONNX'te keyfi-kesinlikte nicelenmiş NN'leri temsil etmek için bir teklif
Konuşmacı, kablosuz iletişimdeki uygulamasının bir örneği ile düşük hassasiyetli nicelemeyi tartışıyor. ONNX'te rastgele-kesinlikte nicelenmiş sinir ağlarını temsil etmek için bir lehçe olan QONNX'i öneriyorlar. QONNX, niceleme gösterimini basitleştirir, daha geniş bir senaryo setine genişletir ve farklı yuvarlama türleri ve ikili niceleme için seçenekler sunar. FPGA'larda dağıtım için kullanılıyor ve Brevitas Python niceleme kitaplığına entegre edildi ve NQCDQ sonraki sürüme entegre edilmek üzere ayarlandı.
GRCon20 - ONNX ile GNU Radyosunda derin öğrenme çıkarımı
GRCon20 - ONNX ile GNU Radyosunda derin öğrenme çıkarımı
Video, derin öğrenmeyi radyo frekansı alanında esnek, açık kaynaklı bir çözüm olarak entegre etmek için açık bir format olarak ONNX'i kullanmayı tartışıyor. Konuşmacı, hem GNU Radyosu hem de ONNX için Python arayüzlerini kullanan yeni modülleri GR DNN DN4'ü sunar ve yeteneklerini GNU Radyosu tarafından üretilen simüle edilmiş veriler üzerinde eğitilmiş derin bir evrişimli sinir ağı modeli kullanan bir otomatik modülasyon sınıflandırması örneğiyle gösterir. Ayrıca, BGG16 modeliyle SDR verileri üzerinde derin öğrenmeyi sınıflandırma için kullanmanın gerekliliklerini ve zorluklarını tartışıyorlar ve çıkarımı iyileştirmek ve gerçek zamanlı sonuçlara ulaşmak için GPU gibi donanım hızlandırmanın kullanılmasını öneriyorlar. Proje açık kaynaklıdır ve işbirliği teşvik edilir.