Makine Öğrenimi ve Sinir Ağları - sayfa 39

 

YOLOv8'i Özel Veri Kümesinde Eğitin | YOLOv8 Kullanarak İşaret Dili Alfabelerini Algılama ve Tanıma



YOLOv8'i Özel Veri Kümesinde Eğitin | YOLOv8 Kullanarak İşaret Dili Alfabelerini Algılama ve Tanıma

Video, YOLOv8'in işaret dili alfabesi algılama ve tanıma için özel bir veri kümesine uygulanmasını gösterir. Süreç, veri setinin indirilmesini, modeli 50 dönem için eğitmeyi ve karışıklık matrisi ile eğitim ve doğrulama kayıplarını kullanarak performansını değerlendirmeyi içerir. Sunum yapan kişi ayrıca, modelin doğrulama grubu ve eğitim için kullanılmayan görüntüler üzerindeki tahminlerinin, farklı görüntüler üzerinde nasıl davranacağını belirlemek için nasıl doğrulandığını tartışır. Eğitilen model daha sonra doğrulanır ve doğrulama veri seti görüntüleri üzerinde test edilir ve iyi sonuçlarla bir demo video çıkarımı gösterilir. Genel olarak video, özel veri kümesi eğitimi ve nesne algılama için YOLOv8 uygulamasını vurgular.

  • 00:00:00 Videonun bu bölümünde sunum yapan kişi, YOLOv8'in işaret dili alfabelerini algılama ve tanıma için özel veriler üzerine eğitimi konusunu tanıtıyor. Süreci adım adım açıklıyorlar ve YOLOv8 kullanarak bir işaret dili alfabesi algılama ve tanıma sisteminin nasıl uygulanabileceğini tartışıyorlar. Sunum yapan kişi, karışıklık matrislerini, eğitim ve doğrulama kayıplarını ve test görüntülerini görüntülemek için gerekli olan OS, IPython ekranı ve G-LOP gibi çeşitli kitaplıkları içe aktarır. Sunucu daha sonra GPU erişiminin nasıl kontrol edileceğini gösterir ve veri kümesi görüntüleri içeren farklı klasörler arasında kolay gezinme için bir yardımcı değişken tanımlar. Son olarak, "pip kurulumunu" kullanarak Ultra Analytics'i kurarlar ve YOLOv8'in kurulu olduğunu ve düzgün çalıştığını doğrularlar.

  • 00:05:00 Bu bölümde video, YOLOv8'in işaret dili alfabesi tespiti ve tanınması için özel bir veri kümesine uygulanma sürecini göstermektedir. Veri seti Roboflow'tan indirilir ve YOLOv8 modeli bunun üzerinde 50 dönem boyunca eğitilir. Karışıklık Matrisi, modelin farklı sınıfları ne kadar iyi algılayıp sınıflandırabileceğini belirleyerek modelin performansını değerlendirmek için kullanılır. Sonuçlar, modelin Alfabe A'yı zamanın %60'ında doğru bir şekilde tespit edebildiğini, ancak bazen yanlış sınıflandırmayla sonuçlandığını veya tespit edemediğini göstermektedir. Genel olarak video, özel veri kümesi eğitimi ve nesne algılama için YOLOv8 uygulamasını vurgular.

  • 00:10:00 Videonun bu bölümünde sunum yapan kişi, modelin farklı sınıfları ne kadar iyi ele aldığını gösteren karışıklık matrisini ve eğitim ve doğrulama kayıplarını tartışıyor; bunların en önemlileri kutu günlükleri ve sınıflandırma kaybı. Modelin doğrulama kümesindeki tahminleri de gösterilir ve modelin farklı görüntüler üzerinde nasıl davrandığını belirlemek için eğitim için kullanılmayan görüntüler doğrulanır. Özel model daha sonra doğrulanır ve doğrulama veri kümesi görüntüleri üzerinde test edilir, ardından modelin işaret dili alfabelerini algılayıp tanıdığını iyi sonuçlarla gösteren demo video çıkarımı yapılır. Son olarak, izleyicilerin sağlanan video veri kümesiyle kendi modellerini test etmeleri teşvik edilir.
Train YOLOv8 on Custom Dataset | Sign Language Alphabets Detection and Recognition using YOLOv8
Train YOLOv8 on Custom Dataset | Sign Language Alphabets Detection and Recognition using YOLOv8
  • 2023.01.19
  • www.youtube.com
#yolo #yolov8 #objectdetection #opencvpython #opencv #computervision #machinelearning #artificialintelligence #deeplearning#artificialintelligence Sign Lan...
 

Nesne İzleme ile YOLOv8 Segmentasyonu: Adım Adım Kod Uygulaması | Google İşbirliği | pencereler



Nesne İzleme ile YOLOv8 Segmentasyonu: Adım Adım Kod Uygulaması | Google İşbirliği | pencereler

Bu eğitim videosu, YOLOv8 segmentasyonunun derin sıralama izleme kimliği ve izleriyle nasıl uygulanacağına ilişkin kapsamlı bir kılavuz sağlar. Sunum yapan kişi, izleyicileri gerekli betik dosyalarını içe aktarma, bağımlılıkları kurma ve derin sıralama ile segmentasyon ve nesne izleme için gerekli dizini ayarlama sürecinde yönlendirir. Öğretici, benzersiz kimlikler ve hareket izleriyle nesne izlemenin bir gösterimini ve YOLOv8 segmentasyonu ve derin sıralama izleme için tek tıklamayla çözüm kodu sağlayan GitHub deposu hakkında bir tartışma içerir. Eğitim ayrıca, YouTube kanalına yüklenmeyecek video eğitimlerine özel erişim sağlayan bir patreon programını da tanıtıyor. Genel olarak, öğretici, nesne izleme ile YOLOv8 segmentasyonu için kod uygulamasının adım adım açıklamasını sunar.

  • 00:00:00 Video eğitiminin bu bölümünde, izleyicilere, derin sıralama izleme kimliği artı izlerle YOLO V8 segmentasyonunu nasıl uygulayacakları konusunda rehberlik edilir. Eğitim, Google Colab'ın yanı sıra Windows ve Linux'ta uygulama sürecinin bir gösterimiyle birlikte kodun uçtan uca açıklamasını sağlar. İzleyiciler ayrıca, YouTube kanalına yüklenmeyecek video eğitimleri de dahil olmak üzere haftada iki ila üç projeye özel erişim sunan yeni bir patreon programı ile tanıştırılır. Video, YOLO V8 segmentasyonu ve derin sıralama izleme için tek tıklamayla çözüm kodu sağlayan ve özel veri kümelerine veya önceden eğitilmiş MS Coco veri kümesine uygulamayı kolaylaştıran GitHub deposunun tartışılmasıyla sona eriyor.

  • 00:05:00 Bu bölümde sunum yapan kişi, nesne izleme ile YOLOv8 segmentasyonunu uygulamaya dahil olan ilk adımlardan geçer. İlk adım, GitHub deposunu klonlamayı ve gerekli tüm betik dosyalarını içe aktarmayı içerir. Bağımlılıklar setup.py dosyası kullanılarak kurulur ve derin sıralama ile segmentasyon ve nesne takibi yapmak için gerekli dizin ayarlanır. Sunucu daha sonra test için Google Drive'dan örnek bir video indirir ve her nesneye atanan benzersiz kimlikler ve her nesnenin hareketini gösteren izlerle nesne izlemenin nasıl yapıldığını gösterir. Video, YOLOv8'in PyCharm kullanarak bir Windows sistemine nasıl uygulanacağının bir açıklamasıyla sona eriyor.

  • 00:10:00 Bu bölümde konuşmacı, Windows'ta Google Colab'da nesne izleme ile YOLOv8 segmentasyonunu uygulamak için adım adım bir kılavuz sağlar. İşlem, GitHub deposunun klonlanmasını, geçerli dizini klon klasörü olarak ayarlamayı, tüm bağımlılıkları yüklemeyi ve derin sıralama dosyalarını indirmeyi içerir. Derin sıralama dosyaları, derin sıralama algoritmasını kullanarak nesne izlemeyi uygulamak için gereklidir. Bu dosyalar indirilir ve bölümlere ayrılmış eğitim klasörüne çıkarılır. Konuşmacı ayrıca, derin sıralama yerine kullanılabilecek birden fazla nesne izleme algoritması olduğundan bahseder.

  • 00:15:00 Bu bölümde, konuşmacı nesne izleme algoritmasını tartışıyor ve testten sonra derin sıralama algoritmasının en iyi performansı gösterdiğini bulduğunu belirtiyor. Komut dosyasında izleme için SORT algoritmasını kullanacaklarını açıklıyorlar. Konuşmacı bir demo video indirir ve nesne takibi için kullanılan YOLOv8-sn BT önceden eğitilmiş modelini açıklayan kodu gösterir. Ayrıca YOLOv8'in çeşitli modellerini ve bunların hız ile doğruluk arasındaki dengelerini tartışıyorlar. Son olarak, konuşmacı tahmin.5 komut dosyasını açıklar ve sınırlayıcı kutu renklerinin algılanan nesneler için nasıl tanımlandığını vurgular.

  • 00:20:00 Bu bölümde konuşmacı, algılanan nesnenin etrafında bir dikdörtgen oluşturan, benzersiz bir kimlik ve etiket atayan ve bir sınırlayıcı kutu oluşturan işlevi gösterir. CV nokta iki dikdörtgen işlevi algılanan nesnenin etrafındaki dikdörtgeni oluştururken, UI dokunmatik kutu işlevinin sınırlayıcı kutuyu ve yukarıdaki dikdörtgeni oluşturmak için nasıl kullanıldığını açıklarlar. Konuşmacı ayrıca Draw Dash kutulama işlevinin yörünge çizmek için sınırlayıcı kutunun alt kenarının merkezini nasıl bulduğunu ve her nesneye benzersiz bir kimlik atadığını gösterir. Genel olarak konuşmacı, nesne izleme ile YOLOv8 segmentasyonu için kod uygulamasının adım adım açıklamasını sağlar.

  • 00:25:00 Bu bölümde konuşmacı, veri depolamak için bir liste yerine çift uçlu kuyruğun (DQ) kullanımını açıklıyor. DQ, nesnelerin değerlerini depolamak ve geçerli çerçevede olmayan bir nesnenin kimliğini kaldırmak için kullanılır. Veriler, CV2 araç hattı kullanılarak iz çizmek için kullanılır. Segmentasyon gerçekleştirilir ve çıktı videosu, atanmış benzersiz kimlikle izleri ve algılanan nesneleri gösterir. Konuşmacı, betiğin bir CPU üzerinde çalışmasının daha uzun sürebileceğini ancak aynı adımlarla bir GPU üzerinde çalıştırılabileceğini belirtiyor.
YOLOv8 Segmentation with Object Tracking: Step-by-Step Code Implementation | Google Colab | Windows
YOLOv8 Segmentation with Object Tracking: Step-by-Step Code Implementation | Google Colab | Windows
  • 2023.01.14
  • www.youtube.com
#yolov8 #objectdetection #objectracking #objectsegmentation #opencv#yolo #opencvpython #computervision #segmentation #machinelearning #artificialintellige...
 

YOLOv8 | Nesne Algılama | segmentasyon | Eksiksiz Eğitim Google Colab| Tek Tıkla Çözüm



YOLOv8 | Nesne Algılama | segmentasyon | Eksiksiz Eğitim Google Colab| Tek Tıkla Çözüm

Video eğitimi, nesne algılama ve segmentasyon için Google Colab kullanılarak YOLOv8'in nasıl uygulanacağını gösterir. Kullanıcılar, GitHub deposunu klonlama, paketleri yükleme, dizinleri yapılandırma ve test için Google Drive'dan demo videoları içe aktarma adımlarında yönlendirilir. Kullanıcıya ayrıca bir demo videoda nesne algılama için YOLOv8 modelini nasıl çalıştıracağı, herhangi bir boşluk sorununu nasıl çözeceği ve çıktı videosunu nasıl kaydedip indireceği gösterilir. Öğretici, YOLOv8 ile segmentasyon gerçekleştirmeyi de kapsar ve devam etmeden önce önceki sıkıştırılmış dosyaları kaldırmanın önemini vurgular. Not defteri dosyasını indirmek için bir bağlantı sağlanır ve izleyiciler yorum bölümünde soru sormaya teşvik edilir.

  • 00:00:00 Bu bölümde sunum yapan kişi, algılama ve segmentasyon için Google Colab kullanılarak YOLOv8'in uygulanmasını tartışıyor. Öğretici, YOLOv8 GitHub deposunu klonlamak ve gerekli paketleri kurmakla başlar. Sunum yapan kişi, sistemin gerekli dizinlerle nasıl yapılandırılacağını ve test için Google Drive'dan demo videoların nasıl içe aktarılacağını gösterir. Kullanıcılar, bu adımları izleyerek ve sağlanan hücreleri çalıştırarak nesne algılama ve segmentasyon için Google Colab'da YOLOv8'i yükleyebilir ve uygulayabilir.

  • 00:05:00 Bu bölümde, eğitim videosu, bir demo videoda nesne algılama için YOLOv8 modelini çalıştırmayı tartışıyor. Video klasöre aktarılır ve YOLOv8 GitHub deposu not defterine eklenir. "Test 1" videosu daha sonra YOLOv8 modeliyle tespit için test edilir ve "test 2" videosu denenmeden önce tüm boşluk sorunları giderilir. Çıktı videosu bir yola kaydedilir ve sonuçları incelemek için indirilebilir, ancak öğretici ayrıca HTML ve OS kitaplıklarını kullanarak Google Colab içinde demo videoyu göstermek için bir komut dosyası içerir.

  • 00:10:00 Bu alıntı, Google Colab'da YOLOv8 kullanarak bir nesne algılama modeli oluşturmaya ilişkin bir eğitimin devamı gibi görünüyor. Konuşmacı, çıkış videosu için yolun doğru olduğundan emin olmak için kodda bazı ayarlamalar yapıyor ve hataları kontrol ediyor. Eksik RB.free ile ilgili bir sorundan ve kodu tekrar çalıştırmadan önce düzelttikleri bir boşluk sorunundan bahsediyorlar. Video, nesne algılama modelinin çıktısını gösterir.

  • 00:15:00 Bu bölümde kullanıcı YOLOv8 kullanarak segmentasyon yapmaktadır. Çıkış videosunda etkileyici sonuçlar elde ederek, segmentasyon gerçekleştirmek için gerekli kodu kopyalar ve çalıştırırlar. Kullanıcı, segmentasyona devam etmeden önce önceki sıkıştırılmış dosyayı kaldırmanın önemini vurgular. Ayrıca not defteri dosyasını indirmek için bir bağlantı sağlarlar ve izleyicileri yorum bölümünde olabilecek tüm soruları sormaya teşvik ederler.
YOLOv8 | Object Detection | Segmentation | Complete Tutorial Google Colab| Single Click Solution
YOLOv8 | Object Detection | Segmentation | Complete Tutorial Google Colab| Single Click Solution
  • 2023.01.10
  • www.youtube.com
#objectdetection #segmentation #yolov8 #yolo *Update*I have updated the Google Colab Notebook, Now you can do Detection, Segmentation and Export the Model in...
 

AI Yüz Duygu Tanıma | V7 ile Yüz İfadelerini Tanımlama



AI Yüz Duygu Tanıma | V7 ile Yüz İfadelerini Tanımlama

Video eğitimleri, yapay zeka yüz duygu tanıma için açıklamalı veri kümeleri oluşturmak üzere V7 platformunu kullanma sürecini tartışır. Öğreticiler, bir veri kümesi oluşturma, görüntülere ve videolara duygular için açıklama ekleme, modeli eğitme ve onu örnek görüntüler ve canlı web kameralarında test etme dahil olmak üzere sürecin çeşitli yönlerini kapsar. Yapay zeka modellerinin etkin eğitimi için doğru etiketlemenin önemi eğitimler boyunca vurgulanır ve V7 platformunun özellikleri ve çoklu modeller vurgulanır. Öğreticiler, yapay zeka kullanarak yüz ifadelerini tanımlamak için ek açıklama sürecinin uçtan uca örneklerini sunar.

  • 00:00:00 Bu bölümde YouTuber, bir yüz ifadesi algılayıcısı oluşturmak için V7 platformunun nasıl kullanılacağını açıklıyor. Bir veri seti oluşturma, hem resim hem de video yükleme ve veri setini etiketleme adımlarından geçerler. V7 platformu, kullanıcının modelini nesne algılama veya segmentasyon ve sınıflandırma için eğitmesine ve bunu örnek görüntüler, videolar ve hatta web kamerası üzerinde test etmesine olanak tanır. YouTuber, kızgın bir yüz ifadesi örneğini kullanıyor ve modeli eğitmek için görseller yüklüyor. Ayrıca V7'nin diğerlerinin yanı sıra PNG, JPG, JFIF, MP4 ve ABI dahil olmak üzere çeşitli resim ve video formatları sunduğundan da bahsediyorlar. Genel olarak bu video, V7 platformunu kullanarak bir yüz ifadesi algılayıcının nasıl uygulanacağına dair uçtan uca bir eğitim sağlar.

  • 00:05:00 Bu bölümde sunum yapan kişi, V7 labs ile yüz ifadelerine açıklama ekleme sürecini adım adım anlatıyor. Sunucu, kızgın sınıf örneğini kullanarak, bir kişinin yüzünün çevresine nasıl sınırlayıcı bir kutu çizileceğini ve ardından kızgın duygular için bir sınıf etiketi oluşturmayı gösterir. Sunum yapan kişi daha sonra veri setinde yer alan 50 görüntünün tümüne açıklama eklemeye devam eder ve işlemin video karelerine açıklama eklemek için de tekrarlanabileceğini belirtir. Genel olarak sunum yapan kişi, AI yüz duygu tanıma modellerinin etkili eğitimi için doğru etiketlemenin önemini vurgular.

  • 00:10:00 Videonun bu bölümünde sunucu, yapay zeka duygu tanıma için görsel görüntüler oluşturmak üzere bir video veri kümesinden karelere nasıl açıklama ekleneceğini gösterir. Sunum yapan kişi bir video veri seti yükler ve tek tek görüntüler oluşturmak için saniyede bir kare çıkarır. Görüntüler daha sonra tasvir edilen duyguyu tanımlamak için ayrı ayrı açıklanır. Sunucu, sürecin zaman alıcı olduğunu ancak makine öğrenimi için kapsamlı bir veri kümesi oluşturmak açısından önemli olduğunu belirtiyor. Sunum yapan kişi ayrıca AI duygu tanıma için hem görüntülere hem de videolara açıklama ekleme becerisini gösterir. Genel olarak bu bölüm, yapay zeka duygu tanıma için açıklamalı veri kümeleri oluşturmaya yönelik yararlı bir eğitim sağlar.

  • 00:15:00 Bu bölümde, konuşmacı, V7 teknolojisi kullanılarak yapay zeka yüz duygu tanımada "mutlu" sınıf için bir veri kümesini yükleme ve açıklama ekleme sürecini açıklıyor. Konuşmacı 50 resim yükler ve bunları "mutlu" etiketiyle birer birer açıklar. Şimdiye kadar 100'ü "kızgın" sınıf için olmak üzere toplam 182 görsele açıklama eklendiğinden bahsediyorlar. Ayrıca bir video yüklemeyi ve her birine yüz ifadeleri için açıklama eklemek üzere ayrı karelere bölmeyi tartışıyorlar.

  • 00:20:00 Bu bölümde, video eğitimi, AI yüz duygu tanıma kullanarak videolarda ve görüntülerde mutlu ve korkmuş bireyleri tanımlamaya yönelik ek açıklama sürecini gösterir. Ek açıklama yapan kişi, 66 mutlu insan videosu yükler ve her kareyi döndürerek ve mutlu veya nötr ifadeleri etiketleyerek Envision ile bunlara açıklama ekler. Ardından, açıklama yapan kişi korku için yeni bir sınıf ekler ve 50 görüntü yükler, ardından her görüntüye uygun duygu etiketiyle açıklama ekler. Tamamlanan veri seti 248 resim ve video içerir ve eğitim, yapay zeka kullanarak yüz ifadelerini tanımlamak için ek açıklama sürecinin uçtan uca bir örneğini sağlar.

  • 00:25:00 Bu bölümde YouTuber, AI yüz duygu tanıma projesi için resimlere açıklama ekleme ve animasyon ekleme konusundaki ilerlemelerini tartışıyor. Şeffaf camın 50 görüntüsünün tamamına başarıyla açıklama eklediler ve ayrıca bir korku kişisi videosunun açıklamasını kare kare tamamladılar. YouTuber daha sonra son dersleri olan sürpriz ders için tüm görsellere açıklama eklemeye devam ediyor ve tüm açıklamaları tamamladıktan sonra videonun eğitim kısmına geçeceğini söylüyor. Video, proje için bir iş akışı şeması gösteriyor ve YouTuber, anında bölümleme veya sınıflandırma yerine nesne algılama ve sınırlayıcı kutular oluşturacaklarını açıklıyor.

  • 00:30:00 Bu bölümde, eğitim videosu, V7 kullanılarak bir yapay zeka modelinin yüz ifadeleri ve duygulardan oluşan bir veri kümesi üzerinde eğitim sürecini gösterir. Eğitim, tamamlandıktan sonra gönderilen bir e-posta bildirimi ile veri kümesi eğitiminin nasıl planlanacağını ve izleneceğini gösterir. Video ayrıca, modelin ortalama kesinlik ve geri çağırma gibi performans ölçümlerinin yanı sıra zaman içinde sürekli azalan kayıpları da vurgular. Eğitim, eğitilen modelin Python, kabuk, JavaScript veya Elixir kullanılarak çeşitli API'lerde kullanılmak üzere nasıl dağıtılabileceğini ve modelin canlı web kameralarında da nasıl test edilebileceğini göstererek sona erer.

  • 00:35:00 Bu bölümde, konuşmacı V7 laboratuvarlarını kullanarak yapay zeka yüz duygu tanımayı gösteriyor. Süreç, kızgın, mutlu, korku, sürpriz ve daha fazlası için görüntü veri kümelerinin toplanmasını ve etiketlenmesini içerir. Konuşmacı modeli eğitir ve bir web kamerası ve görüntü örnekleri kullanarak test eder ve iyi sonuçlar elde eder. V7 labs ayrıca segmentasyon ve metin tarama gibi görevler için birden fazla model sunar ve kullanıcılar ücretsiz kredilerle kendi modellerini oluşturabilirler. Konuşmacı, V7'yi kullanarak gelecekteki projelerle dalga geçiyor ve izleyicileri videoyu paylaşmaya ve beğenmeye teşvik ediyor.
AI Face Emotion Recognition | Identifying Facial Expressions With V7
AI Face Emotion Recognition | Identifying Facial Expressions With V7
  • 2023.02.08
  • www.youtube.com
#objectdetection #videoannotation #computervision #expressionrecognition #facialemotiondetection #machinelearning ------------------------------------------...
 

YOLOv8 Canlı :Object Tracking YOLOv8 ile Gerçek Zamanlı Futbolcu ve Top Tespiti ve Takibi



YOLOv8 Canlı :Object Tracking YOLOv8 ile Gerçek Zamanlı Futbolcu ve Top Tespiti ve Takibi

Bu YouTube video eğitiminde sunum yapan kişi, Roboflow kullanarak bir futbolcu ve top algılama ve izleme veri kümesi oluşturma sürecini gösterir. Sunum yapan kişi, görüntüleri karşıya yükleme ve açıklama ekleme, veri kümesini hazırlama, modeli eğitme, örnek videolar ve canlı web kamerası üzerinde test etme ve izlemeyi iyileştirmek için kodu değiştirme adımlarını gözden geçirir. Genel olarak, YOLOv8 modeli iyi çalışıyor ancak belirli senaryolarda futbolu tespit etme konusunda bazı sınırlamaları var.

  • 00:00:00 Eğitimin bu bölümünde sunum yapan kişi, Roboflow kullanarak bir futbolcu ve top algılama veri seti oluşturma sürecini adım adım anlatıyor. Bir hesaba nasıl kaydolacağınızı ve yeni bir proje oluşturacağınızı ve ek açıklama için çerçeveleri çıkarmak üzere YouTube'dan videoların nasıl yüklenip işleneceğini gösterirler. Sunucu, çerçevelere henüz açıklama eklenmediğini not eder ve açıklama için başka bir video yüklemeye devam eder.

  • 00:05:00 Bu bölümde video oluşturucu, bir futbolcu ve top algılama ve izleme projesi için görüntüleri yükleme ve açıklama ekleme sürecini gösteriyor. İçerik oluşturucu, görüntüleri yükler ve bir videodan kareler çıkarır, görüntülere açıklama ekleme işini kendilerine atar. Her görüntüye futbolcu ya da futbolcu etiketleriyle açıklama eklerler ve her görüntüde farklı oyuncuların açıklama yaptığını gösterirler. Son olarak, proje için toplam 1827 görsele açıklama eklediklerini belirtiyorlar.

  • 00:10:00 Videonun bu bölümünde sunum yapan kişi, tüm görüntüleri 640x640 olarak yeniden boyutlandırarak, açıklamalı olmayan görüntüleri filtreleyerek ve veri kümesini artırmak için artırılmış veriler üreterek bir futbolcu ve top algılama modeli için veri kümesini hazırlamaktan bahsediyor. boyut. Artırılmış veriler, tek bir görüntüden oluşturulan farklı kontrastlara ve parlaklık seviyelerine sahip iki görüntüyü içerir. Sunucu, veri kümesini Roboflow'tan bir Google Colab dosyasına aktarır ve modeli bir GitHub deposundan çıkarılan bir futbol veri kümesini kullanarak eğitir. Ayrıca eğitilen modelin ağırlığından tasarruf etmek için Google Drive'larını Colab not defterine bağlarlar.

  • 00:15:00 Bu bölümde, kullanıcı mevcut çalışma dizinini GitHub repo'su olarak ayarlar ve algılama veya tahmin sürecini çalıştırırken herhangi bir hatadan kaçınmak için gerekli tüm bağımlılıkları kurar. Daha sonra gerekli dizine doğru hareket ederler ve veri setini roboflow'dan Google not defterlerine indirirler. Kullanıcı ayrıca Derin Sıralama dosyalarını indirir ve Derin Sıralama kullanarak nesne izlemeyi uygulamak için bunları açar. Son olarak, YOLOv8'in özel modelini futbolcu ve futbol veri kümesi üzerinde eğitiyorlar ve doğrulayarak iyi bir ortalama sağlıyorlar. Kullanıcı, F1 eğrisi, Kesinlik eğrisi, Geri Çağırma eğrisi ve eğitim ve doğrulama bankası sonuçları dahil olmak üzere eğitim sonuçlarını gözden geçirebilir.

  • 00:20:00 Bu bölümde konuşmacı, YOLOv8 modelinin futbolcu ve top tespiti ve takibi için sonuçlarını tartışıyor. Oyuncular için ortalama 0,63144 ve 0,476 kesinlik ve iyi futbol tespiti ile kesin sonuçlar bildirirler. Konuşmacı daha sonra modellerini test etmek için örnek bir videoyu nasıl indirdiklerini ve sonuçları göstermenin yanı sıra modeli canlı bir web kamerası testine yerleştirdiklerini gösterir. Genel olarak model, oyuncuları tespit etme ve benzersiz kimlikler atama konusunda iyi çalıştı, ancak futbolla ilgili bazı tespitleri kaçırdı.

  • 00:25:00 Bu bölümde video, takip sürecini basitleştirmek için kodda futbola atanan benzersiz kimliğin nasıl kaldırılacağını gösterir. Kod değişiklikleri, project.py dosyasını düzenleyerek ve futbol etiketine atanan benzersiz kimliği kaldırarak yapılır. Çıkış videosu daha sonra indirilir ve canlı bir web kamerasında test edilir; burada model, bir oyuncu gibi giyinmedikleri için oyuncuyu değil, futbolu başarılı bir şekilde algılayabilir. Genel olarak, kodda yapılan değişiklikler izleme sürecini iyileştirdi ve tatmin edici sonuçlar verdi.

  • 00:30:00 Bu bölümde sunum yapan kişi, YOLOv8 kullanılarak canlı web kamerasında tahminler gerçekleştirmek için yazılmış bir komut dosyasını gösterir. Betik, YOLO'yu içe aktarır, ağırlıklar dosyasını ayarlar ve kaynak 0'a ayarlı ve şov doğru'ya ayarlı olarak tahminler gerçekleştirir. Güven değeri 0,15 olarak ayarlanmıştır. Model, oyuncu kılığındayken sunucuyu tespit edemedi, ancak bir futbolu tespit etme sonuçları başarılı oldu.
Real Time Football Player and Ball Detection and Tracking using YOLOv8 Live :Object Tracking YOLOv8
Real Time Football Player and Ball Detection and Tracking using YOLOv8 Live :Object Tracking YOLOv8
  • 2023.02.13
  • www.youtube.com
#objectdetection #computervision #yolo #yolov8 #objecttracking #opencv #opencvpython #pytorch Real Time Football Player and Ball Detection and Tracking using...
 

Yüz, Cinsiyet Tespiti, Yüz Sayma ve Kişi İzleme için YOLOv8 ve VGG16 | Özel Veri Kümesi



Yüz, Cinsiyet Tespiti, Yüz Sayma ve Kişi İzleme için YOLOv8 ve VGG16 | Özel Veri Kümesi

Video eğitimi, YOLOv8 ve VGG16 modellerini kullanarak yüz algılama, cinsiyet sınıflandırması, yüz sayımı ve kişi izleme sürecini açıklamaktadır. Eğitim, veri hazırlama, veri artırma, önceden eğitilmiş VGG16 modelinde ince ayar yapma, transfer öğrenmeyi kullanma ve YOLOv8 modelini yüz algılama için eğitme dahil olmak üzere bu modellerin uygulanmasına ve eğitilmesine ilişkin çeşitli yönleri kapsar. Sunum yapan kişi ayrıca bir Google Drive'ı bir Google Colab not defterine nasıl ekleyeceğinizi, görüntü veri kümelerine nasıl erişeceğinizi ve bunları dönüştüreceğinizi, gerekli kitaplıkları nasıl indireceğinizi ve derin sıralama kullanarak nesne izlemeyi nasıl entegre edeceğinizi açıklar. Eğitim, algılanan nesnelerin çevresine sınırlayıcı kutular çizmek, cinsiyet sınıflandırma modelini entegre etmek, bir çerçevedeki yüz sayısını saymak ve deepsort.update kullanarak algılanan her yüze benzersiz bir kimlik atamak için ayrıntılı kod açıklamaları sağlar.

  • 00:00:00 Eğitim videosunun bu bölümünde YOLOv8 ve VGG16 kullanarak cinsiyet sınıflandırmalı yüz algılama ve izlemeli yüz sayma iş akışı anlatılmaktadır. İlk adım, erkek ve kadın yüzlerinin görüntülerinden oluşan veri setini hazırlamak, VGG16 modelini cinsiyet tespiti için eğitmek, ardından YOLOv8 modelini yüz tespiti için eğitmektir. YOLOv8'den yüz algılama ile eğitimli VGG16 modeli kullanılarak cinsiyet sınıflandırması yapılır. Nesne izleme daha sonra, tespit edilen her yüze veya kişiye benzersiz bir kimlik atanan Deepsort kullanılarak uygulanır. Not defteri, gerekli kitaplıkların içe aktarılması, Google Drive'ın kurulması, veri kümesinin yüklenmesi, görüntülerin ve etiketlerin dizilere dönüştürülmesi, veri artırmanın uygulanması, cinsiyet sınıflandırma verilerinde VGG16 modelinde ince ayar yapılması, eğitim ve doğrulama kaybının çizilmesi ve örnek bir görüntü ile test etme.

  • 00:05:00 Bu bölümde, konuşmacı görüntüleri numpy dizilerine dönüştürmek için kullanılabilecek çeşitli kitaplıkları ve işlevleri tartışır ve tersi de geçerlidir. Ayrıca, iki tireli kategorik kitaplığın kullanımını ve sinir ağındaki katmanları düzenlemek için sıralı ve işlevsel yaklaşımlar kavramını açıklarlar. Düzleştirilmiş katman, çok boyutlu girdileri tek boyuta dönüştürmek için kullanılırken, yoğun katman, çıktı katmanı boyutunu tanımlamak için kullanılır. Ek olarak, VGG16 modeliyle transfer öğreniminin kullanımını ve tren testi bölme, numpy ve işletim sistemi kitaplıklarının içe aktarılmasını tartışıyorlar. Son olarak, bir klasördeki tüm dosyalara erişmek için gdob kitaplığının ve görüntü veri kümelerini karıştırmak için rastgele kitaplığın kullanılmasından bahsederler.

  • 00:10:00 Bu bölümde video, zip biçiminde yüklenen bir veri kümesine erişmek için bir Google Drive'ın bir Google Colab not defteriyle nasıl bağlanacağını açıklar. Veri kümesi, erkek ve kadın yüzlerinin görüntülerini içerir ve video, bu görüntüleri içeren klasöre nasıl erişileceğini ve bu klasöre nasıl erişileceğini gösterir. Video, glob kitaplığını kullanarak, veri kümesi klasörlerindeki tüm görüntü dosyalarına erişir ve bunları, görüntünün bir erkek mi yoksa kadın yüzü mü olduğunu gösteren etiketlerle bir dizi formatına dönüştürür. Video örnek bir resim gösterir ve resim dosyaları değişkeninin erkekler ve kadınlar klasörünün cb2.im read kullanılarak okunabilen tüm resim dosyası yollarını nasıl içerdiğini açıklar.

  • 00:15:00 Bu bölümde konuşmacı, veri setlerini yüz ve cinsiyet tespiti için nasıl hazırladıklarını açıklıyor. Bir "erkekler" ve "kadınlar" klasörü oluşturdular, içindeki görüntüleri yeniden boyutlandırdılar ve bunları daha sonra bir veri listesinde saklanan dizilere dönüştürdüler. İlgili etiket değerlerini, kadınlar için 1 ve erkekler için 0 olacak şekilde bir etiket listesine eklediler. Veri ve etiket listeleri daha sonra NumPy kullanılarak dizilere dönüştürüldü. Konuşmacı ayrıca, çeşitli dönüşümler uygulayarak tek bir görüntüden birden çok görüntü üreten bir görüntü verisi üreteci kullanarak veri artırmayı da gösteriyor. Daha sonra, önceden eğitilmiş bir VGG16 modelinin cinsiyet sınıflandırma veri setinde ince ayarını yaptılar ve çıktı katmanını tanımlamak için softmax aktivasyonunu uyguladılar. Çıktı boyutu, erkekleri veya kadınları sınıflandırmak için 2'ye ayarlandı.

  • 00:20:00 Eğitim videosunun bu bölümünde, konuşmacı yüz ve cinsiyet tespiti için VGG16 modelini gösteriyor ve bunun genel bir sınıflandırma veri kümesi üzerinde nasıl eğitileceğini gösteriyor. Model .H5 formatında kaydedilir ve doğruluğu, doğrulama doğruluğu ve kayıp kısımları hesaplanır. cv2.dsize kullanılarak görüntü 100x100 boyutlarına yeniden boyutlandırılır ve bir diziye dönüştürülür ve model görüntünün bir erkek mi yoksa bir kadın mı içerdiğini tahmin eder. Eğitimin bir sonraki bölümünde, YOLOv8 modeli, yüzleri algılamak ve izleme için benzersiz bir kimlik atamak üzere bir yüz veri kümesi üzerinde eğitilecektir. Konuşmacı ayrıca, tahmin.pi dosyasına eklenen basit bir kod kullanılarak yüz sayımının uygulanacağından da bahseder. Genel olarak, eğitim yedi adıma bölünmüştür.

  • 00:25:00 Bu bölümde sunum yapan kişi, derin sıralama kullanarak nesne izlemeyi uygulamak için kullanacakları GitHub deposunu ve yüz küçültme için YOLO V8 modelini tanıtıyor. Her kişiye benzersiz bir kimlik atamak için derin sıralama nesne izleme kodunu entegre etmeden önce yüzleri nasıl algılayacaklarını ve cinsiyet sınıflandırmasını nasıl gerçekleştireceklerini tartışıyorlar. Sunum yapan kişi daha sonra mevcut dizinini klonlama deposu olarak ayarlar ve komut dosyası için gereken tüm gerekli kitaplıkları ve bağımlılıkları kurar. Ayrıca veri kümesini RoboFlow'dan Google Colab not defterlerine indirirler, ancak özel hesapları olduğu için sorunlarla karşılaşırlar.

  • 00:30:00, yüz algılama için önceden eğitilmiş YOLOv8 modelinin ağırlıklarını kullanıyor. Veri seti indirildi ve Google Drive hesabıma kaydedildi ve zaten bir YOLOv8 modelini yüz algılama için 80 dönem için eğittim. Eğitilen model zaten kaydedilmiştir ve ağırlıklar Google Colab not defterine indirilmiştir. Nesne izleme, derin sıralama kullanılarak gerçekleştirileceğinden, derin sıralama dosyaları da not defterine indirilir. Ek olarak, bir VGG16 modeli cinsiyet tespiti için eğitildi ve modelin .h5 dosyası kaydedildi ve Google Drive hesabına indirildi. Örnek videolar, cinsiyet sınıflandırıcı kodu ve yüz sayımı içeren tahmin.pi komut dosyasını test etmek için Google Drive'dan indirilir.

  • 00:35:00 Bu bölümde konuşmacı, derin sıralama kullanarak nesne izlemeyi uygulamak için eklenen kodu açıklar. Derin sıralama nesne izleme bağlantı noktası başlatılır ve YOLOv8 modelinden alınan çıktıyı derin sıralama için uyumlu bir biçime dönüştürmek için bir işlev tanımlanır. UI kutusu işlevi, algılanan nesnelerin çevresinde sınırlayıcı kutular oluştururken, çizim kutusu işlevi, metin için yuvarlatılmış bir dikdörtgen çizmek üzere UI kutusunu ve sınır çiz işlevlerini çağırır. Derin sıralama izleme kodu, iz çizme yeteneğiyle birlikte entegre edilmiştir. Konuşmacı daha sonra cinsiyet sınıflandırıcısının kodunu ve Paint dosyasındaki sayma işlevini açıklar. Count işlevi, her çerçevedeki her nesneyi saymak için kullanılır. Genel olarak kod, YOLOv8'den X1, Y1, X2 ve Y2 çıkış değerlerinin derin sıralama kullanılarak nesne takibi için merkez koordinatlara, yükseklik ve genişlik değerlerine nasıl dönüştürüleceğini, gerçek dünya uygulamasında nesne algılama ve nesne izlemeyi gerçekleştirmeyi açıklar.

  • 00:40:00 Bu bölümde, konuşmacı YOLOv8 modelinin sınırlayıcı kutunun xcyc merkez koordinatlarına ve sınırlayıcı kutunun derin sıralama nesne takibi ile uyumlu hale getirilmesi için genişlik ve yüksekliğe dönüştürülmesini tartışır. Ayrıca, etiket için hesaplama rengi işlevinin algılanan nesnelere benzersiz renkleri nasıl atadığını ve Draw Dash kenarlık işlevinin, etiketin ve güven puanının yazıldığı sınırlayıcı kutunun üzerinde bir dikdörtgen oluşturduğunu da açıklarlar. Konuşmacı ayrıca, cinsiyet sınıflandırıcı sınıfından ve bunun, algılanan nesnelerin cinsiyetini sınıflandırmak için videonun her karesine nasıl yüklenip kullanıldığından da bahsediyor. Ayrıca, sınırlayıcı kutular oluşturmak ve cinsiyet sınıflandırıcı işlevini çağırmak için kullanılan UI Dash box işlevinden ve Dash kutuları çiz işlevinden bahsederler.

  • 00:45:00 Bu bölümde sunucu, bir yüzün bir erkeğe mi yoksa kadına mı ait olduğunu tespit etmek için cinsiyet sınıflandırma modelinin nasıl kullanılacağını açıklıyor. Yüz tespit edildikten sonra cinsiyet sınıflandırma modeline sadece sınırlayıcı kutu koordinatları aktarılır. Model daha sonra yüzün bir erkeğe mi yoksa kadına mı ait olduğunu tahmin eder ve buna göre sınırlayıcı kutunun üzerine etiket eklenir. Sunucu daha sonra, çerçevede algılanan yüzlerin sayısını depolamak için Foundry-classes adlı bir sözlüğü kullanan işlev sayısını açıklar. Sayı, kullanıcı arayüzünde videonun veya resmin üst kısmında görüntülenir.

  • 00:50:00 Bu bölümde konuşmacı, geçerli çerçevede kaç yüzün algılandığının FaceDetails sınıfındaki Foundry sınıfı sözlüğünde saklandığını açıklar. Sözlük iki değer içerir, "yüz"ü içeren anahtar değişken ve geçerli çerçevede kaç yüzün algılandığını içeren değer değişkeni. Konuşmacı, her çerçevede kaç yüzün algılandığını göstermek için sayma işlevini kullanır ve deepsort.update kullanarak algılanan her yüze benzersiz bir kimlik atar. Konuşmacı ayrıca bir genel sınıf, bir sınıflandırma sınıfı ve bir tehlike sınıfı oluşturur. Model tespitleri, birden çok demo video üzerinde test edilir ve konuşmacı, tespitlerin sonuçlarını her karede gösterir.
YOLOv8 and VGG16 for Face, Gender Detection, Face Counting, and People Tracking | Custom Dataset
YOLOv8 and VGG16 for Face, Gender Detection, Face Counting, and People Tracking | Custom Dataset
  • 2023.03.05
  • www.youtube.com
#objectdetection #computervision #yolo #yolov8 #ultralytics #transferlearning #vgg16 #objecttracking #deepsort #facedetection #opencv #opencvpython #pytorc...
 

YOLOv8 Kullanarak Trafik Işıklarını Algılama ve Renk Tanıma | Özel Nesne Algılama Eğitimi



YOLOv8 Kullanarak Trafik Işıklarını Algılama ve Renk Tanıma | Özel Nesne Algılama Eğitimi

"YOLOv8 kullanarak Trafik Işıkları Algılama ve Renk Tanıma" video eğitimi, Ultralytics YOLOv8 web pro kullanarak bir trafik ışığı algılama ve renk tanıma modeli oluşturma adımlarını açıklar. Trafik ışığı veri kümesini, veri artırmayı, gerekli kitaplıkları kurmayı, YOLOv8 modelinde ince ayar yapmayı ve modeli birkaç video üzerinde test etmeyi kapsar. Sunum yapan kişi, gerekli tüm kitaplıkların kurulmasının önemini vurgular ve modelin videolar üzerinde test edilmesinin sonuçları, çeşitli renkteki trafik ışıklarını algılama ve tanımadaki doğruluğunu gösterir.

  • 00:00:00 bölümünde, eğitim, yeşil, kırmızı ve sarı olmak üzere üç farklı trafik ışığı sınıfına sahip yaklaşık 1000 görüntüden oluşan proje için kullanacakları trafik ışığı veri setini kapsar. Her bir etiketin örneklerini gösterirler ve eğitim veri kümelerinde yeterli görüntüye sahip olmadıkları için veri kümelerinin boyutunu artırmak için veri artırmayı nasıl uyguladıklarını açıklarlar. Video, veri kümesinin RoboFlow'dan Google Colab not defterine nasıl aktarılacağını göstermekle devam ediyor ve diğer özelliklerin yanı sıra modelleri eğitmeye, dağıtmaya ve izlemeye yardımcı olabilecek yeni piyasaya sürülen Expense ürününü tanıtıyor.

  • 00:05:00 Bu bölümde YouTuber, ultralytics YOLOv8 web pro kullanarak bir trafik ışığı algılama ve renk tanıma modeli oluşturmaya yönelik uygulama sürecindeki ilk adımları açıklıyor. İlk adım, farklı dosya yollarında gezinmek ve giriş ve çıkış görüntülerini çizmek için kullanılan işletim sistemi ve glob gibi gerekli tüm kitaplıkların içe aktarılmasını içerir. Daha sonra, bir GPU olup olmadığını kontrol ederler ve gerekli tüm kitaplıkları pip kullanarak kurarlar. Son olarak, ultralytics GitHub deposunu klonlarlar ve kalan gerekli kitaplıkları kurmadan önce onu geçerli dizin olarak ayarlarlar. Video, daha sonra komut dosyası hatalarını önlemek için gerekli tüm kitaplıkların kurulmasının önemini vurgulamaktadır.

  • 00:10:00 Videonun bu bölümünde sunum yapan kişi, Google Colab kullanarak bir trafik ışığı veri kümesi üzerinde bir YOLO V8 modelini eğitme ve ince ayar yapma adımlarını gösteriyor. Veri kümesi klasörünü geçerli dizin olarak ayarladıktan sonra, model 80 kutu için Ade kutusu üzerinde eğitildi ve sonuçlar, tüm sınıflar için IOU50s ile ortalama ortalama kesinliğin %98,3 olduğunu gösteriyor. Ardından, modelin yeşil, kırmızı ve sarı ışıkları sırasıyla %96,7, %97,4 ve %95,5 oranında doğru olarak sınıflandırdığını gösteren karışıklık matrisi sunulur. Sunum yapan kişi ayrıca kaybın sürekli olarak azaldığını ve modelin daha fazla çağda eğitilerek daha da geliştirilebileceğini belirtiyor. Son olarak, modelin en iyi ağırlıkları, doğrulama görüntüleri kullanılarak doğrulanır.

  • 00:15:00 Bu bölümde konuşmacı, trafik ışıklarının demo videosu da dahil olmak üzere çeşitli videolarda YOLOv8 modelinin test edilmesinin sonuçlarını tartışıyor. Model, trafik ışıklarını doğru bir şekilde algılayabilir ve ışığın rengiyle eşleşen bir sınırlayıcı kutu rengiyle ışığın rengine göre etiketler atayabilir. Hoparlör, her biri için uygun etiket ve sınırlayıcı kutu rengiyle kırmızı, yeşil ve sarı trafik ışıklarını algılayan model örneklerini gösterir. Modelin farklı videolardaki sonuçları, çeşitli renkteki trafik ışıklarını algılama ve tanımadaki doğruluğunu göstermektedir.
Traffic Lights Detection and Color Recognition using YOLOv8 | Custom Object Detection Tutorial
Traffic Lights Detection and Color Recognition using YOLOv8 | Custom Object Detection Tutorial
  • 2023.03.16
  • www.youtube.com
#yolo #yolov8 #objectdetection #computervision #opencv #pytorch #python #trafficlights #trafficlightsdetection #trafficanalysis A complete YOLOv8 custom o...
 

YSA Kullanarak Müşteri Kaybı Analizi ve Tahmini | Derin Öğrenme Eğitimi(Tensorflow, Keras ve Python)



YSA Kullanarak Müşteri Kaybı Analizi ve Tahmini | Derin Öğrenme Eğitimi(Tensorflow, Keras ve Python)

"YSA Kullanarak Müşteri Kaybı Analizi ve Tahmini | Derin Öğrenme Eğitimi(Tensorflow, Keras & Python)" başlıklı YouTube videosu, Kaggle'dan bir veri kümesi kullanarak müşteri kaybını tahmin etmek için yapay sinir ağlarının kullanımını gösteriyor. Video, veri temizleme, kategorik özellikleri kodlama ve sütunlardaki değerleri ölçekleme gibi verilerin hazırlanmasında yer alan çeşitli adımları kapsar. Konuşmacı daha sonra 20 nöronluk tek bir gizli katmana ve giriş ve çıkış katmanlarını tanımlarken bir sigmoid aktivasyon işlevine ve ikili çapraz entropi kaybı işlevine sahip bir optimize ediciye sahip bir sinir ağı oluşturur. Ulaşılan doğruluk ve Scikit-learn kitaplığı kullanılarak yapılan sınıflandırma raporu, tahmin edilen değerlerin 0,78'lik bir doğruluk gösterecek şekilde 0 veya 1 biçimine dönüştürülmesiyle görüntülenir.

  • 00:00:00 Bu bölümde, YouTuber müşteri kaybı konusunu tanıtıyor ve bunu tahmin etmek için yapay sinir ağlarının nasıl kullanılabileceğini açıklıyor. Keşif amaçlı veri analizi ve veri temizleme gerçekleştirmek için Kaggle ve Jupyter Notebook'tan bir veri seti kullanacaklar, ardından veri düzenleme, tren testi ve bölme işlemi yapacaklar ve sonunda bir yapay sinir ağı kullanarak müşteri kayıplarını tahmin edecekler. Pandas ve NumPy gibi gerekli kitaplıkları içe aktararak başlarlar ve ardından müşteri kaybını tahmin etmede yararlı olmadığı için müşteri kimliği sütununu bırakarak veri kümesini yükleyip analiz etmeye devam ederler.

  • 00:05:00 Videonun bu bölümünde, konuşmacı veri türlerini kontrol etme ve herhangi bir kategorik özelliği belirleme sürecini tartışıyor. Konuşmacı, "toplam ücretler" sütununun, kayan veya tamsayı bir değer olması gerekmesine rağmen kategorik bir değişken olarak göründüğünü keşfeder. Bu sorunu çözmek için konuşmacı sütunu bir tamsayıya dönüştürür. Ayrıca 488 konumunda bir boş alan hatasıyla karşılaşırlar ve hatayı yok saymak için bu hatayı error = "coerce" kullanarak çözerler. Son olarak, konuşmacı satırlarda hiçbir değer olup olmadığını kontrol eder ve gerektiğinde bunları çıkarmayı planlar.

  • 00:10:00 Bu bölümde konuşmacı, Python kullanarak toplam ücretler sütunlarından boş satırları çıkarma sürecini tartışıyor. Başlangıçta, konuşmacı toplam ücretler sütunundaki boş satırların sayısını tanımlar ve ardından bunları kaldırmak için pd.notnull()'u uygular. Satırları bıraktıktan sonra konuşmacı, beklenen sayıyla eşleştiğinden emin olmak için kalan satır sayısını kontrol eder. Daha sonra konuşmacı, pd.to_numeric() kullanarak toplam ücretler sütununu sayısal bir veri türüne dönüştürür. Konuşmacı, veri türü dönüştürmesini kaydetmeme hatasını tanımlar ve ayarlar.

  • 00:15:00 Videonun bu bölümünde sunum yapan kişi, müşteri kayıp verileri üzerinde keşif amaçlı veri analizi yapıyor. "Toplam masraflar" sütununu değişken tipe dönüştürürler ve görselleştirmeler kullanarak değerleri kontrol ederler. Ardından, 10 aylık bir süreye dayalı olarak kaç sadık müşterinin kaldığını (çalkalanmayan) görmek için bir histogram çizerler ve ayrılan müşterileri yeşil, kalanları kırmızı olarak gösteren veri noktalarını renklerle kodlarlar.

  • 00:20:00 Bu bölümde, konuşmacı her sütundaki benzersiz değerleri bulmak için ifadeleri değiştirmeyi ve benzersiz değerlerden önce sütun adları eklemeyi tartışır. Konuşmacı ayrıca kategorik değişkenlere sahip tüm sütunları bulmaktan ve bunları tamsayılara veya değişkenlere dönüştürmekten bahsediyor. Ardından, tüm bu adımları bir araya getirmek ve kategorik değerleri herhangi bir veri çerçevesinde yazdırabilmek için bir işlev tanımlarlar.

  • 00:25:00 Videonun bu bölümünde, konuşmacı, içine konulan herhangi bir veri çerçevesi için kategorik değerleri veya nesne veri türü değerlerini yazdırmak için bir işlevin nasıl kullanılacağını gösterir. Daha sonra, bir sütunu kayan veri türüne dönüştürüp kaldırarak veri çerçevelerini değiştirirler. Konuşmacı, replace işlevini kullanarak "internet hizmeti yok" ve "telefon hizmeti yok"u "hayır" ile değiştirir ve kategorik değerleri dönüştürmek için tüm evet ve hayır değişkenlerini sırasıyla 1 ve 0 ile değiştirdikleri bir evet-hayır sütunu tanımlar. makine öğrenimi modellerinin anlaması daha kolay olan sayısal değerler.

  • 00:30:00 Bu bölümde, konuşmacı verileri makine öğrenimi için hazırlama adımlarını tartışıyor. Veri setinin eğitim ve test setlerine nasıl bölüneceğini ve "dişi" yerine 1 ve "male" yerine 0 koyarak kategorik özelliklerin nasıl kodlanacağını gösterirler. Ardından konuşmacı, tek bir gizli katmana sahip bir sinir ağı oluşturmak için TensorFlow ve Keras'ı kullanır. 20 nöron ve bir sigmoid aktivasyon fonksiyonu. Girdi katmanında 27 özellik bulunur ve çıktı katmanı tanımlanır.

  • 00:35:00 Videonun bu bölümünde sunum yapan kişi, verileri makine öğrenimi modellerine hazırlamak için get kuklaları kullanılarak metin verilerinin tamsayı değerlere nasıl dönüştürüleceğini tartışıyor. Sunucu, internet hizmeti ve sözleşme gibi değişkenler için sahte değerlerin nasıl üretileceğini gösterir ve ardından sütunlardaki değerleri 0 ile 1 arasında ölçeklendirmek için min max skaler kullanır. Ölçeklendirmenin amacı, sütunlardaki değerleri 0 ile 1 arasında getirmektir. 1, böylece makine öğrenimi modeli verileri doğru bir şekilde anlayabilir ve yorumlayabilir.

  • 00:40:00 Bu bölümde, konuşmacı bir yapay sinir ağı kullanarak müşteri kaybı analizi ve tahmini için girdi katmanı, çıktı katmanı ve optimize edicinin nasıl tanımlanacağını tartışıyor. Gereksiz giriş katmanını kaldırır ve bir veya sıfırdan oluşan çıkış katmanını sigmoid aktivasyon fonksiyonu ile tanımlar. ReLU fonksiyonunun gizli katmanda sınıflandırma problemleri için kullanılabileceğini ancak çıkış katmanında kullanılamayacağını belirtmektedir. Optimize edici, ikili bir çapraz entropi kayıp fonksiyonu ile tanımlanır ve doğruluk, 100 epoch model derlemesi ile kontrol edilir. Son olarak, Scikit-learn kitaplığını kullanarak elde edilen doğruluğu ve sınıflandırma raporunu görüntüler.

  • 00:45:00 Bu bölümde konuşmacı, 2 boyutlu bir dizide bulunan ve 0 ile 1 arasında değişen tahmini değerleri nasıl 0 veya 1 formuna dönüştürdüklerini açıklar. Bunu, bir değer 0,5'ten büyükse 1, 0,5'ten küçükse 0 olarak kabul edileceğini belirten bir for döngüsü kullanarak yaptılar. Değerleri dönüştürdükten sonra, konuşmacı sınıflandırmayı yazdırdı. 0.78 doğruluk gösteren rapor. Eğitim, konuşmacının izleyicilere izledikleri için teşekkür etmesi ve onları kanala abone olmaya davet etmesiyle sona erer.
 

Araç takip / Trafik izleme yolov5+deepsort



Araç takip / Trafik izleme yolov5+deepsort

Herkes buraya youtube'dan geliyor veya sadece çıkarım için depomu kullanmak istiyor. Bu, ben okuldayken CV öğrenmek için çok eski bir proje. Uzun zaman oldu, bu yüzden bu oyuncak projesinde yaptığım her şeyi unuttum. Bu depodan düzenleme yaptım ve bazı kısıtlamalar için bazı kod satırları ekledim. Referans için bu repoyu kullanabilirsiniz. Teşekkürler.

YOLOv5 tarafından üretilen tespitler, nesneleri izleyen Derin Sıralama algoritmasına iletilir.

Kod: https://github.com/duongcongnha/Vehicle-tracking

Vehicle tracking / Traffic monitoring yolov5+deepsort
Vehicle tracking / Traffic monitoring yolov5+deepsort
  • 2022.01.21
  • www.youtube.com
Full 34 minutes of Tracking traffic using yolov5 + deepsortVideo: https://youtu.be/wqctLW0Hb_0My repo: https://github.com/duongcongnha/Vehicle-tracking
 

CVPR 2018'deki 2. AI City Challenge Workshop'ta araç takibi ve hız tahmini demosu



CVPR 2018'deki 2. AI City Challenge Workshop'ta araç takibi ve hız tahmini demosu

Washington Üniversitesi'nden ekibimiz, CVPR 2018'deki 2. AI City Challenge Workshop'ta Track 1'in (Trafik Akışı Analizi) galibi oldu.

2. AI City Challenge (2018) için veri kümeleri artık halka açık değil. Ancak yine de 3. AI City Challenge'ın (2019) veri kümelerine erişebilir veya CVPR 2020'deki en son 4. AI City Challenge'a katılabilirsiniz.

Görüntü tabanlı yeniden tanımlamanın yanı sıra çok kameralı araç takibi için şehir ölçeğinde yeni bir veri seti sağladılar. Ayrıca trafik anormalliği tespiti için yeni bir veri setine sahiplerdi. Veri kümelerinin ölçeği ve değerlendirme için kullanılan araç sayısı emsalsizdir. AI City Challenges'ın web sitesi https://www.aicitychallenge.org/ adresindedir.

Kod: https://github.com/zhengthomastang/2018AICity_TeamUW

Demo of vehicle tracking and speed estimation at the 2nd AI City Challenge Workshop in CVPR 2018
Demo of vehicle tracking and speed estimation at the 2nd AI City Challenge Workshop in CVPR 2018
  • 2018.04.09
  • www.youtube.com
In this demo video, the estimated speed of each vehicle is shown in miles/hour.Our team from the University of Washington is the winner of Track 1 (Traffic F...
Neden: