Ticaret için ONNX'i öğrenme - sayfa 9

 

ONNX Çalışma Zamanı Raspberry Pi'ye nasıl kurulur



ONNX Çalışma Zamanı Raspberry Pi'ye nasıl kurulur

Video, ONNX Runtime'ın Raspberry Pi'ye nasıl kurulacağına dair ayrıntılı bir kılavuz sunar. Raspberry Pi üzerinde Raspbian Stretch'i indirip kurduktan sonra, kullanıcının Docker ve QMU kullanıcı statik paketini kurması, bir derleme dizini oluşturması ve pip aracılığıyla kurulabilen ONNX Runtime tekerlek paketini almak için bir komut çalıştırması gerekir. Video ayrıca, MNIST veri kümesi üzerinde eğitilmiş derin bir sinir ağı kullanılarak ONNX Runtime'ın nasıl test edileceğini ve tek bir görüntü üzerinde bir çıkarım oturumu çalıştırmak için geçen sürenin nasıl hesaplanacağını da açıklıyor. Konuşmacı, sürecin uzun ve karmaşık olabileceğini, ancak uç cihazlarda sinir ağlarını dağıtma ve test etme yeteneği için buna değdiğini belirtiyor.

  • 00:00:00 İşletim sistemi Raspberry Pi tarafından yayınlandı ve Raspberry Pi OS (eski adıyla Raspbian) Stretch'i buradan indirebilirsiniz. Raspberry Pi'nize Docker'ı indirip kurduktan sonra, sonraki adım ONNX Runtime Github deposuna gitmek ve ARM32v7 platformu için Dockerfile'ı bulmaktır. Farklı platformlar için farklı Docker dosyaları mevcuttur, ancak Raspberry Pi için ihtiyacınız olan ARM32v7'dir. Doğru Docker dosyasını bulduktan sonra, Raspberry Pi'nize ONNX Runtime'ı kurmak için verilen talimatları takip edebilirsiniz. Bu biraz uzun ve karmaşık bir süreç olabilir, ancak uç cihazlarda sinir ağlarını dağıtma ve test etme yeteneği için buna değer.

  • 00:05:00 Bu bölümde, konuşmacı ONNX Runtime'ın Raspberry Pi'ye nasıl kurulacağını açıklıyor. İlk olarak, kullanıcının SD kartı önyüklenebilir hale getirmek için Raspbian Stretch dosyasını ve Raspberry Pi görüntüleyiciyi indirmesi gerekir. Raspbian Stretch, Raspberry Pi'ye yüklendikten sonra, kullanıcının Docker ve QMU kullanıcı statik paketini yüklemesi gerekir. Bir derleme dizini oluşturduktan sonra, kullanıcının güncellenmiş Dockerfile dosyasını derleme dizinine kaydetmesi ve ONNX Runtime wheel paketini almak için komutu çalıştırması gerekir. Wheel dosyası pip ile yüklenip test edildikten sonra içe aktarılabilir ve Python 3 sürüm 3.8 ile Raspberry Pi üzerinde ONNX kullanılabilir.

  • 00:10:00 Bu bölümde, konuşmacı belirli bir veri kümesi üzerinde eğitilmiş bir modeli test etmek için Raspberry Pi üzerinde ONNX Runtime'ın nasıl kullanılacağını açıklar. Konuşmacı, MNIST veri setini kullanarak rakam sınıflandırması yapabilen derin bir sinir ağını zaten eğitmiş ve kod ile modele bir bağlantı sağlamıştır. Gerekli kitaplıkları içe aktardıktan sonra konuşmacı, ONNX Runtime kullanarak bir çıkarım oturumu çalıştıran bir komut dosyası oluşturur. Konuşmacı bir segmentasyon hatasıyla karşılaşır ve araştırdıktan sonra, ONNX Runtime'ın yapabileceği üç grafik optimizasyonu seviyesini öğrenir ve bunları devre dışı bırakarak komut dosyasını başarıyla çalıştırır ve öngörülen çıktıyı alır.

  • 00:15:00 Bu bölümde konuşmacı, Raspberry Pi'lerinin tek bir görüntü üzerinde bir çıkarım oturumu çalıştırmak için geçen süreyi nasıl hesapladıklarını açıklıyor. Çıktı oluşturmak için geçen süreyi hesaplamak için zaman kitaplığını kullanan ayrı bir komut dosyası sunarlar ve modeli ONNX çalışma zamanı içinde çalıştırırlar, yaklaşık 0,06 saniye sürerler, konuşmacı bunun basit bir model ve küçük görüntü boyutu için gerçekten iyi olduğunu not eder. Görüntüleyenleri Raspberry Pi'lerine ONNX çalışma zamanı yüklemeye ve herhangi bir soru veya endişe için ulaşmaya teşvik ediyorlar.
 

Çeşitli MobileNet ONNX modelleri ile Raspberry Pi üzerinde çalışan Görüntü Sınıflandırma


Çeşitli MobileNet ONNX modelleri ile Raspberry Pi üzerinde çalışan Görüntü Sınıflandırma

MobileNet V1 ONNX modellerinin 3 modelini kullanarak Raspberry Pi 4'te ONNX Runtime'da görüntü sınıflandırması gerçekleştirin.

  1. Derinlik 1.00 & 224x224
  2. Derinlik 0,50 & 160x160
  3. Derinlik 0,25 & 128x128

Kullanılan modele bağlı olarak 7 ms'de yapılan sınıflandırma.

 

Raspberry Pi 4 üzerinde çalışan ONNX Runtime üzerinde SSDLite Mobilenet V2


Raspberry Pi 4 üzerinde çalışan ONNX Runtime üzerinde SSDLite Mobilenet V2

Raspberry Pi 4 üzerinde donanım hızlandırması olmadan çalışan ONNX Runtime üzerinde SSDLite Mobilenet V2.

 

Raspberry Pi 4 üzerinde çalışan ONNX Runtime üzerinde SSDLite Mobilenet V1 0.75 derinliği



Raspberry Pi 4 üzerinde çalışan ONNX Runtime üzerinde SSDLite Mobilenet V1 0.75 derinliği

ONNX Runtime üzerinde SSDLite Mobilenet V1 0.75 derinliği, Raspberry Pi 4 üzerinde donanım hızlandırması olmadan çalışıyor.

 

Raspberry Pi 4 üzerinde çalışan ONNX Runtime üzerinde Tiny-YOLOv3



Raspberry Pi 4 üzerinde çalışan ONNX Runtime üzerinde Tiny-YOLOv3

Raspberry Pi 4 üzerinde donanım hızlandırması olmadan çalışan ONNX Runtime üzerinde Tiny-YOLOv3.

 

Optimize Edilmiş ONNX Çalışma Zamanı ile Raspberry Pi 4 Sınıflandırma ve Nesne Tespiti



Optimize Edilmiş ONNX Çalışma Zamanı ile Raspberry Pi 4 Sınıflandırma ve Nesne Tespiti

Raspberry Pi 4'te ONNX Runtime'da görüntü sınıflandırması gerçekleştirin:

  1. MobileNet V3 ile sınıflandırma;
  2. SSDLite MobileNet V2 kullanarak algılama.
 

Optimize Edilmiş ONNX Çalışma Zamanı ile Raspberry Pi 4 Nesne Algılama (2020 Sonu)



Optimize Edilmiş ONNX Çalışma Zamanı ile Raspberry Pi 4 Nesne Algılama (2020 Sonu)

Donanım : Raspberry Pi 4B
İşletim Sistemi: Raspberry Pi İşletim Sistemi (32bit)
Yazılım: Özel yürütme sağlayıcılı ONNX Runtime 1.4.0 (CPU hızlandırmalı)
modeller:

 

Raspberry Pi 4 üzerinde çalışan ONNX Runtime üzerinde Tiny-YOLOv3


Raspberry Pi 4 üzerinde çalışan ONNX Runtime üzerinde Tiny-YOLOv3

Raspberry Pi 4 üzerinde donanım hızlandırması olmadan çalışan ONNX Runtime üzerinde Tiny-YOLOv3.

 

Raspberry Pi 4'te Otonom Sürüş Nesnesi Algılama!



Raspberry Pi 4'te Otonom Sürüş Nesnesi Algılama!

Bu eğitimde eğitmen, Raspberry Pi 4'ü otonom sürüş eğitimi almış bir sinir ağıyla nesne algılaması için yapılandırmak için gereken adımları gösteriyor. Bu, depoyu klonlamayı, sanal bir ortam kurmayı, GPIO, OpenCV ve TensorFlow gibi bağımlılıkları kurmayı ve Raspberry Pi kamera modülünü yapılandırmayı içerir. Daha sonra eğitmen, Pi'ye bir LED ve basmalı düğme bağlamayı ve nesne algılamalı görüntüleri yakalamak için bir Python komut dosyası çalıştırmayı gösterir. Son olarak kullanıcı, komut dosyasını önyükleme sırasında çalıştırmak ve çıktı yoluna kaydedilen görüntülerle görüntüleri kaydetmek için toplu rc dosyasında ayarlamalar yapabilir.

  • 00:00:00 Bu bölümde video eğitmeni, Raspberry Pi 4 üzerinde otonom sürüş eğitimi almış bir sinir ağı ile nesne algılama gerçekleştirmek için yazılım yapılandırma adımlarını adım adım anlatıyor. Eğitmen, Raspberry Pi'nin güncel olduğundan emin olarak depoyu klonlayarak başlıyor. video açıklamasında verilen ve bu proje için bağımlılıkları sistemdeki diğer projelerden ayrı tutmak için sanal bir ortam kurmak. Eğitmen daha sonra proje için gerekli olan gpio python paketi, OpenCV ve TensorFlow gibi bağımlılıkları bir bash betiği çalıştırarak kurmadan önce sanal ortamı etkinleştirir. Son olarak eğitmen, terminaldeki yapılandırma ayarlarını girip Raspberry Pi 4'e bağlayarak Raspberry Pi kamera modülünün nasıl yapılandırılacağını gösterir.

  • 00:05:00 Bu bölümde sunum yapan kişi, Raspberry Pi'de otonom sürüş nesnesi tespiti için kamera modülünün, LED'in ve basmalı düğmenin nasıl kurulacağını gösterir. Kamera modülü basitçe Pi'ye takılır ve yerine sabitlenir. Program çalışırken görsel geri bildirim sağlamak için Pi'ye 470 ohm'luk bir dirençle bir LED bağlanır. Benzer şekilde, görüntülerin işlenmesini başlatmaya ve durdurmaya izin vermek için devre tahtasına bir basma düğmesi eklenir. Sunum yapan kişi daha sonra, işlenen görüntüleri belirli bir konuma kaydeden monitör sinir ağı ve çıkış yolu için bağımsız değişkenler içeren bir Python betiği çalıştırarak kurulumun yazılım tarafını gösterir.

  • 00:10:00 Bu bölümde Raspberry Pi'nin nesne algılama ile yakaladığı görüntülerin çıktı yolunu ve nereye kaydedildiğini görüyoruz. Kullanıcı, python betiğinin klavye veya fareye ihtiyaç duymadan açılışta çalışması için toplu rc dosyasında ayarlamalar yapmaya devam eder. Son adım, Raspberry Pi'yi arabaya koymak, bir AC prizine takmak ve işlenen görüntüler belirtilen çıkış yoluna kaydedilen çekimleri kaydetmeye başlamaktır. Kullanıcı, yakalanan görüntülerin bir gif veya videoya dönüştürülebileceğini önerir.
 

Nesne Tespiti için Raspberry Pi'de TensorFlow Lite Nasıl Çalıştırılır



Nesne Tespiti için Raspberry Pi'de TensorFlow Lite Nasıl Çalıştırılır

Öğretici, nesne algılama için bir Raspberry Pi'de TensorFlow Lite'ın nasıl kurulacağını açıklar. Bu, Pi'nin güncellenmesini, kamera arayüzünün etkinleştirilmesini, GitHub deposunun indirilmesini, sanal bir ortam yaratılmasını, TensorFlow ve OpenCV'nin kurulmasını ve gerekli tüm paketleri ve bağımlılıkları kurmak için bir kabuk betiği çalıştırmayı içerir. Kullanıcılar, Google tarafından sağlanan örnek bir modeli indirebilir veya kendi özel modellerini eğitebilir. Model hazır olduğunda kullanıcılar Python 3'te bir kod çalıştırarak gerçek zamanlı web kamerası algılama betiklerini, video ve resimlerde algılamayı görebilirler. TensorFlow Lite'ın geliştirilmiş hızı, onu akıllı kameralar veya alarm sistemleri gibi gerçek zamanlı algılama uygulamaları için kullanışlı hale getirir. İçerik oluşturucu ayrıca kendi evcil hayvan dedektörü projesinden bahseder ve izleyicileri Coral USB hızlandırıcının kurulumuyla ilgili bir sonraki video için bizi izlemeye teşvik eder.

  • 00:00:00 Bu bölümde, video eğitimi, nesne algılama için bir Raspberry Pi'de TensorFlow Lite'ın nasıl kurulacağına ilişkin adım adım bir kılavuz sunar. TensorFlow Lite, Pi gibi düşük güçlü cihazlarda çalışacak şekilde optimize edilmiş, daha hızlı çıkarım süreleri ve daha az işlem gücü gerektiren hafif bir makine öğrenimi modelidir. Öğretici, Pi'yi güncellemeyi, kamera arayüzünü etkinleştirmeyi, GitHub deposunu indirmeyi, sanal bir ortam oluşturmayı, TensorFlow ve OpenCV'yi kurmayı ve gerekli tüm paketleri ve bağımlılıkları kurmak için bir kabuk betiği çalıştırmayı kapsar. Video ayrıca hatalarla başa çıkmak ve yardım almak için ipuçları içerir ve GitHub kılavuzu, yaygın hataların ve çözümlerin bir listesini içerir.

  • 00:05:00 Bu bölümde, konuşmacı TensorFlow Lite için algılama modelinin nasıl kurulacağını açıklıyor. Kullanıcılar, Google tarafından sağlanan örnek bir modeli indirebilir veya kendi özel modellerini eğitebilir. Google'ın örnek modeli, MS kakao veri kümesi üzerinde eğitilmiş, nicelleştirilmiş bir SSD mobil ağ modelidir ve minimum doğruluk düşüşüyle 80 ortak nesneyi algılamasına olanak tanır. Örnek modeli indirmek için, kullanıcılar bağlantıyı sağ tıklayabilir
    Açıklamaya girin ve indirmek için "W git" ve çıkartma için "unzip" kullanarak terminalde çalıştırın. Ayrıca konuşmacı, bir algılama modeli eğitmek ve onu TensorFlow Lite'a dönüştürmek isteyen kullanıcılar için GitHub'da yazılı bir kılavuz sağlar. Model hazır olduğunda kullanıcılar Python 3'te bir kod çalıştırarak gerçek zamanlı web kamerası algılama betiklerini, video ve resimlerde algılamayı görebilirler. Konuşmacı ayrıca bir sonraki videoda Google'ın koro USB hızlandırıcısını kullanarak algılama hızında nasıl büyük bir artış elde edileceğini açıklayacaklarını belirtti.

  • 00:10:00 Bu bölümde video oluşturucu, TensorFlow Lite'ın geliştirilmiş hızının onu akıllı kameralar veya alarm sistemleri gibi gerçek zamanlı algılama uygulamaları için kullanışlı hale getirdiğinden bahsediyor. Ayrıca kendi projelerinden, kedileri dışarı çıkmak istediğinde onları uyarmak için nesne algılamayı kullandıkları bir evcil hayvan dedektörü videosundan bahsediyorlar ve daha fazla TensorFlow bilgisayarla görme projesi yayınlayacaklarını söylüyorlar. İzleyicilere izledikleri için teşekkür ederek bitiriyorlar ve onları Coral USB hızlandırıcının kurulumuyla ilgili bir sonraki videoları için bizi izlemeye teşvik ediyorlar.
Neden: