Lernen mit ONNX für den Handel - Seite 10

 

Raspberry Pi-Tutorial zur Objekterkennung



Raspberry Pi-Tutorial zur Objekterkennung

In diesem Tutorial zur Objekterkennung auf dem Raspberry Pi zeigt der Moderator, wie Tensorflow Lite auf einem Raspberry Pi installiert und für die Bildklassifizierung verwendet wird, einschließlich einer Demonstration der Echtzeitklassifizierung. Sie erklären auch, was lib atlas ist, eine entscheidende Komponente des maschinellen Lernens für die lineare Algebra, und wie man damit zusammenhängende Fehler auf einem Raspberry Pi behebt. Der Moderator weist darauf hin, dass ein Coral USB-Beschleuniger verwendet werden kann, um die Geschwindigkeit des Projekts zu erhöhen, dies jedoch nicht erforderlich ist. Insgesamt betont der Moderator die Flexibilität des Skripts, um es an verschiedene Anwendungsfälle oder Modelle anzupassen.

  • 00:00:00 In diesem Abschnitt des Videos stellt der Moderator ein Tutorial zur Installation von Tensorflow Lite auf einem Raspberry Pi und dessen Verwendung für die Bildklassifizierung bereit. Der Moderator verwendet die Beispielbibliothek von Tensorflow und stellt fest, dass ein Coral-USB-Beschleuniger verwendet werden kann, um die Geschwindigkeit des Projekts zu erhöhen, obwohl dies nicht erforderlich ist. Zu Beginn aktualisiert der Präsentator den Raspberry Pi und erstellt eine virtuelle Umgebung. Der Referent demonstriert, wie die Umgebung aktiviert und die erforderlichen Pakete installiert werden, bevor die Tensorflow Lite-Laufzeitumgebung installiert wird. Abschließend überprüft der Präsentator die Version, um sicherzustellen, dass alles richtig installiert ist.

  • 00:05:00 In diesem Abschnitt führt der Sprecher ein Objekterkennungsbeispiel auf einem Raspberry Pi aus, stößt jedoch auf einen Fehler im Zusammenhang mit lib atlas. Sie erklären, dass lib atlas für die lineare Algebra, die eine wichtige Komponente des maschinellen Lernens ist, von entscheidender Bedeutung ist. Sie zeigen, wie sie das Problem behoben haben, indem sie sudo apt-get install lib atlas bass dash dev ausgeführt haben. Anschließend demonstriert der Referent die Echtzeit-Klassifizierung mit dem Raspberry Pi und betont, dass das Skript an unterschiedliche Anwendungsfälle oder Modelle angepasst werden kann.
Raspberry Pi Object Detection Tutorial
Raspberry Pi Object Detection Tutorial
  • 2022.03.04
  • www.youtube.com
Here's how you can make your Raspberry Pi perform real-time object detection. It's a fun project and I hope you enjoy. Leave a comment if you have any questi...
 

Objekterkennung OpenCV Python | Einfach und schnell (2020)



Objekterkennung OpenCV Python | Einfach und schnell (2020)

In diesem Video-Tutorial mit dem Titel „Object Detection OpenCV Python | Easy and Fast (2020)“ demonstriert der Moderator, wie man einen Objektdetektor mit der OpenCV-Bibliothek in Python erstellt. Das Video konzentriert sich auf die Schaffung eines Detektors mit einem Gleichgewicht zwischen Genauigkeit und Geschwindigkeit, der mehrere häufig gefundene Objekte in Echtzeit erkennen kann. Das MobileNet-SSD-Modell wird aufgrund seiner Geschwindigkeit und Genauigkeit für die Objekterkennung verwendet, und der Coco-Datensatz wird verwendet, um Klassen wie Personen, Fahrräder und Autos zu erkennen. Das Video zeigt, wie Sie mithilfe der ZIP-Funktion verschiedene Variablen durchlaufen, um ein Rechteck um das erkannte Objekt zu erstellen, und wie Sie den Code ändern, um die Objekterkennung auf einem Webcam-Feed auszuführen. Der Moderator erklärt auch, wie der Schwellenwert angepasst und Konfidenzwerte zu erkannten Objekten hinzugefügt werden, um die Wahrscheinlichkeit jedes Objekts zu verstehen.

  • 00:00:00 In diesem Abschnitt des Videos erläutert der Ersteller, wie ein Objektdetektor mit einem guten Gleichgewicht zwischen Genauigkeit und Geschwindigkeit erstellt wird. Der Detektor kann in Echtzeit ausgeführt werden, während er mehrere gemeinsame Objekte erkennt, und erfordert keine anderen Bibliotheken von Drittanbietern als OpenCV. Das Video geht durch die Codes zum Erstellen eines Objektdetektors und erklärt detailliert die Verwendung der MobileNet-SSD, die eine gute Balance zwischen Genauigkeit und Geschwindigkeit aufweist und fast in Echtzeit auf einer CPU ausgeführt werden kann, was sie zu einer ausgezeichneten Wahl für gemeinsame Objekte erkennen. Schließlich ist opencv-python die einzige Bibliothek, die zum Ausführen des Detektors benötigt wird, und der Coco-Datensatz wird verwendet, um Klassen wie Personen, Fahrräder und Autos zu erkennen.

  • 00:05:00 In diesem Abschnitt des Video-Tutorials demonstriert der Moderator, wie ein Bild mit der OpenCV-Bibliothek in Python angezeigt wird. Sie importieren Namen von Objekten aus dem Coco-Datensatz mit der Funktion with open und lesen sie als Array ein. Anschließend importieren sie Konfigurationsdateien und Gewichte und verwenden die OpenCV-Funktion, um das Modell zu erstellen. Anders als im YOLO-Video-Tutorial, wo Techniken angewendet werden mussten, um den Begrenzungsrahmen zu extrahieren, übernimmt die Funktion die gesamte Verarbeitung für uns, und alles, was wir tun müssen, ist das Bild zu übergeben, und es zeigt den Begrenzungsrahmen und die ID-Namen an.

  • 00:10:00 In diesem Abschnitt erklärt das Video-Tutorial, wie die Objekterkennung mit OpenCV und Python durchgeführt wird. Nach dem Konfigurieren des Erkennungsmodells sendet der Code das Eingabebild an das Modell und gibt die Klassen-IDs, Konfidenzniveaus und Begrenzungsrahmen zurück. Das Tutorial konzentriert sich darauf, einen Objektdetektor ohne umfangreiche Installationen oder Formalitäten so schnell und einfach wie möglich zum Laufen zu bringen. Der Code kann für verschiedene Anwendungen wie selbstfahrende Autos oder Robotergeräte verwendet werden. Das Tutorial berührt auch die Bedeutung von Klassen-IDs und die Bedeutung des Subtrahierens von Eins von ihren Werten, wenn auf die Klassennamen verwiesen wird.

  • 00:15:00 In diesem Abschnitt erklärt der Kursleiter, wie drei verschiedene Variablen oder Informationen mit der ZIP-Funktion durchlaufen werden. Sie verwenden zip, um die Konfidenz- und Begrenzungsrahmenvariablen zu glätten, und verwenden dann eine for-Schleife, um ein Rechteck um das erkannte Objekt zu erstellen. Sie schreiben auch den Namen des erkannten Objekts mit der Funktion putText und verwenden die Variable class names, um eins von der Klassen-ID zu subtrahieren, um den entsprechenden Namen zu erhalten. Der Ausbilder fügt weitere Parameter hinzu, um das Etikett besser sichtbar zu machen, und ändert sogar den Text in Großbuchstaben. Schließlich erkennen sie erfolgreich eine Person im Bild.

  • 00:20:00 In diesem Abschnitt zeigt das Tutorial, wie Sie den Code ändern, um die Objekterkennung auf einem Webcam-Feed statt auf statischen Bildern auszuführen. Der Code verwendet "cv2.videoCapture", um die Webcam zu initialisieren und die Bildgrößenparameter festzulegen. Die While-Schleife wird verwendet, um den Webcam-Feed ständig zu erfassen und anzuzeigen, und es wird eine Bedingung hinzugefügt, um zu prüfen, ob ein Objekt erkannt wurde, bevor es angezeigt wird. Das System erkennt Objekte wie Tastatur, Monitor, Mobiltelefon und Maus in Echtzeit mithilfe des Webcam-Feeds.

  • 00:25:00 In diesem Abschnitt erklärt der Autor, dass der Objekterkennungsalgorithmus Objekte mit guter Geschwindigkeit und Genauigkeit erkennen kann, auch wenn es vielleicht nicht die beste Genauigkeit ist. Anschließend zeigt das Video, wie der Schwellenwert geändert und den erkannten Objekten Konfidenzwerte hinzugefügt werden. Der YouTuber führt dann das Programm aus und demonstriert, wie die Konfidenzwerte für die erkannten Objekte angezeigt werden, die sichtbar und klar genug sind, um die Wahrscheinlichkeit jedes Objekts zu verstehen.
Object Detection OpenCV Python | Easy and Fast (2020)
Object Detection OpenCV Python | Easy and Fast (2020)
  • 2020.08.30
  • www.youtube.com
In this tutorial, we are going to learn how to detect objects using OpenCV and python. The Object Detection OpenCV method we will use is a sweet balance betw...
 

So richten Sie die TensorFlow-Objekterkennung auf dem Raspberry Pi ein



So richten Sie die TensorFlow-Objekterkennung auf dem Raspberry Pi ein

In diesem Video wird die Einrichtung der TensorFlow-Objekterkennungs-API auf einem Raspberry Pi Schritt für Schritt erklärt. Zuerst werden die erforderlichen Pakete installiert, darunter TensorFlow, OpenCV und protobuf. Anschließend wird die TensorFlow-Struktur eingerichtet und SSD-Lite-Modelle werden aus dem TensorFlow Detection Models Zoo heruntergeladen. Ein Python-Skript zur Objekterkennung wird bereitgestellt, und den Zuschauern wird gezeigt, wie es mit einer Pi-Kamera oder einer USB-Webcam verwendet wird. Das Video behandelt auch fortgeschrittenere Themen wie das Herunterladen und Verwenden eines benutzerdefinierten Modells. Der Raspberry Pi wird für kreative Projekte empfohlen, die niedrige Kosten und Portabilität erfordern, wie z. B. eine digitale Katzenklappe, die eine Nachricht senden kann, wenn sie die ansässige Katze draußen erkennt.

  • 00:00:00 In diesem Abschnitt des Videos gibt der Erzähler eine Anleitung zum Einrichten der TensorFlow-Objekterkennungs-API auf einem Raspberry Pi. Die Schritte umfassen das Aktualisieren des Raspberry Pi, das Installieren von TensorFlow, OpenCV und protobuf, das Einrichten der TensorFlow-Verzeichnisstruktur und das Testen des Objektdetektors. Der Erzähler empfiehlt außerdem die Installation zusätzlicher Abhängigkeiten wie numpy, Pillow, scipy und matplotlib. Darüber hinaus bietet das Video hilfreiche Tipps wie die Installation von libatlas und libAV-Codec für eine reibungslose Verarbeitung.

  • 00:05:00 In diesem Abschnitt bietet der Referent eine Schritt-für-Schritt-Anleitung zur Installation der TensorFlow Object Detection API auf dem Raspberry Pi. Sie beginnen mit der Installation der erforderlichen Pakete, einschließlich lib xvid core dev, lib x264 dev und QT for dev tools, gefolgt von OpenCV. Der Redner erklärt dann die Herausforderungen, die mit der Installation von Protobuf auf dem Raspberry Pi einhergehen, und führt den Betrachter durch die Kompilierung aus dem Quellcode, einschließlich des Abrufs der Pakete, die zum Kompilieren der Proto-Bruh-Spaßquelle erforderlich sind, und des Herunterladens der Protobuf-Veröffentlichungsseite. Schließlich stellt der Sprecher die erforderlichen Pfadbefehle bereit und gibt den Befehl aus, die Python-Implementierung der Protokollpuffer zu installieren.

  • 00:10:00 In diesem Abschnitt erklärt der Referent den Prozess zum Einrichten des TensorFlow-Verzeichnisses auf dem Raspberry Pi. Dazu müssen Sie ein Verzeichnis für TensorFlow erstellen und das TensorFlow-Repository von GitHub herunterladen. Die Python-Pfadumgebungsvariable muss geändert werden, um auf einige Verzeichnisse im TensorFlow-Repository zu verweisen, und dies geschieht durch Ändern der Bash-RC-Datei. Der Referent erklärt auch, wie man das SSD Lite-Modell aus dem Zoo der TensorFlow-Erkennungsmodelle herunterlädt und wie Pro Talk verwendet wird, um die Protokollpufferdateien zu kompilieren, die von der Objekterkennungs-API verwendet werden. Schließlich wird ein Python-Skript zum Erkennen von Objekten in Live-Feeds von einer Pi-Kamera oder einer USB-Webcam bereitgestellt, dessen Code im GitHub-Repository des Sprechers verfügbar ist.

  • 00:15:00 In diesem Abschnitt führt der Referent die Zuschauer durch die Verwendung der TensorFlow-Objekterkennung auf dem Raspberry Pi. Sie weisen die Betrachter zunächst an, das Python-Skript zur Objekterkennung herunterzuladen und auszuführen, um sicherzustellen, dass die PI-Kamera im Konfigurationsmenü aktiviert ist. Sie erklären auch, dass es empfehlenswert ist, alle anderen Anwendungen, insbesondere den Webbrowser, zu schließen, da Tensorflow viel Speicher verbraucht. Der Referent zeigt auch die Verwendung eines selbst trainierten Modells und liefert als Beispiel einen Dropbox-Link für ein eigenes Spielkarten-Erkennungsmodell. Den Zuschauern wird empfohlen, das Objekterkennungsskript auszuführen, dessen Initialisierung bis zu einer Minute dauern kann, und erkennt dann häufig vorkommende Objekte und zeigt sie in einem Fenster mit einem Rechteck an. Schließlich empfiehlt der Redner den Raspberry Pi für kreative Anwendungen, die niedrige Kosten und Portabilität erfordern, wie z. B. eine digitale Katzenklappe, die eine Nachricht sendet, wenn sie die ansässige Katze draußen erkennt.
How to Set Up TensorFlow Object Detection on the Raspberry Pi
How to Set Up TensorFlow Object Detection on the Raspberry Pi
  • 2018.07.18
  • www.youtube.com
Learn how to install TensorFlow and set up the TensorFlow Object Detection API on your Raspberry Pi! These instructions will allow you to detect objects in l...
 

Gesichtserkennung mit Raspberry Pi + OpenCV + Python



Gesichtserkennung mit Raspberry Pi + OpenCV + Python

Core Electronics zeigt, wie man ein Gesichtserkennungssystem mit OpenCV und dem Gesichtserkennungspaket von Python auf einem Raspberry Pi erstellt. Das Tutorial umfasst das Trainieren des Systems mit einem Python-Code namens „train_model.py“ und das Testen mit einem Identifikationscode namens „facial_req.py“. Das System kann unbekannte und bekannte Gesichter unterscheiden, und es kann auch den Servo drehen, sobald das System ein bekanntes Gesicht erkennt. Der Entwickler schreibt den Teams von OpenCV und Gesichtserkennungspaketen zusammen mit Carolyn Dunn zu, dass sie diese Art von Software möglich gemacht haben, und setzt große Hoffnungen in ihr Potenzial für ihre zukünftigen Projekte.

  • 00:00:00 In diesem Abschnitt demonstriert Core Electronics, wie man OpenCV und das Gesichtserkennungspaket von Python auf einem Raspberry Pi verwendet, um ein Gesichtserkennungssystem zu erstellen. Zuerst sammeln sie die notwendigen Materialien, darunter den Raspberry Pi, die offizielle Kamera, die Micro-SD-Karte, das HDMI-Kabel und das Netzteil. Nach der Konfiguration des Raspberry Pi und der Installation der Pakete zeigen sie, wie man das Gesichtserkennungssystem mit einem Python-Code namens „train_model.py“ trainiert und es dann mit einem Identifikationscode namens „facial_req.py“ testet. Das Programm ermöglicht es der Raspberry-Pi-Kamera, live nach Gesichtern zu suchen und diese korrekt zu identifizieren, sobald sie sie gefunden hat. Das System kann auch zwischen unbekannten und bekannten Gesichtern unterscheiden und „unbekannt“ bzw. den Namen der Person anzeigen.

  • 00:05:00 In diesem Abschnitt erklärt der Videoersteller, wie man dem Skript sechs Codezeilen hinzufügt, um ein Servo mit GPIO-Pins des Raspberry Pi zu steuern, das sich nur drehen kann, wenn das Raspberry Pi-System das Gesicht seines Besitzers erkennt. Das System aktiviert den Servo nicht, wenn es kein Gesicht oder ein unbekanntes Gesicht erkennt. Der Videokünstler verbirgt sein Gesicht und zeigt, wie sich der Servo bewegt, wenn er sein Gesicht erkennt. Er schreibt den OpenCV- und Gesichtserkennungspaketteams und Carolyn Dunn die Entwicklung der Software zu, die dafür sorgt, dass diese Systeme so gut zusammenarbeiten. Der Videokünstler glaubt, dass diese Software ein immenses Potenzial hat, Projekte an unglaubliche Orte zu bringen.
Face Recognition With Raspberry Pi + OpenCV + Python
Face Recognition With Raspberry Pi + OpenCV + Python
  • 2021.07.05
  • www.youtube.com
Subscribe For More!Article with All Steps - https://core-electronics.com.au/tutorials/face-identify-raspberry-pi.htmlTeach your Pi to spot human faces, train...
 

So installieren Sie TensorFlow 2 und OpenCV auf einem Raspberry Pi



So installieren Sie TensorFlow 2 und OpenCV auf einem Raspberry Pi

Dieses Video bietet eine Schritt-für-Schritt-Anleitung zur Installation von TensorFlow 2 und OpenCV auf einem Raspberry Pi. Der Moderator betont, wie wichtig es ist, einen neueren Pi zu haben, insbesondere einen Pi 4 mit 64 Bit, und gibt Anweisungen zur Installation von Raspberry Pi OS, zum Aktualisieren und Upgraden des Systems und zum Auswählen des geeigneten TensorFlow-Shell-Skripts für sein System. Das Video erklärt auch, wie die Python-Version auf 3.7 geändert werden kann, wenn Probleme bei der Installation auftreten, und bietet detaillierte Anweisungen zur Installation virtueller Umgebungen, Systempakete, TensorFlow und OpenCV. Während des gesamten Videos bietet der Moderator hilfreiche Tipps und Lösungen für mögliche Fehler. Das Video endet mit dem Testen der Installation von OpenCV und TensorFlow mithilfe von Importbefehlen und ermutigt die Zuschauer, Feedback oder Anfragen zu hinterlassen.

  • 00:00:00 In diesem Abschnitt des Videos erklärt der Moderator, wie man einen Raspberry Pi für eine All-in-One-Installation von TensorFlow und OpenCV einrichtet, beginnend mit der Wichtigkeit eines neueren Pi, insbesondere eines Pi 4 ist 64-Bit. Das Video behandelt die Installation von Raspberry Pi OS und die Einrichtung eines Hostnamens, Benutzernamens, Passworts und Wi-Fi-Konfigurationen mit dem Raspberry Pi Imager. Nach dem Hochfahren des Pi weist der Moderator die Zuschauer an, zu aktualisieren und zu aktualisieren, bevor sie ihre Python-Version und die Ausgabe von „uname -m“ überprüfen, die für die Auswahl des geeigneten TensorFlow-Shell-Skripts für ihr System wichtig sind. Der Moderator leitet die Zuschauer auch zu privat gehosteten Shell-Skripts und Wheel-Dateien, mit denen TensorFlow mit dem Raspberry Pi funktioniert.

  • 00:05:00 In diesem Abschnitt des Videos erläutert der Moderator, wie Sie Ihre Python-Version auf 3.7 ändern können, wenn Sie Probleme bei der Installation von TensorFlow 2 und OpenCV auf einem Raspberry Pi haben. Dazu müssen Betrachter pi m verwenden und die erforderliche Python-Version installieren. Der Moderator demonstriert, wie man pi m installiert, Zeilen zur dot bash rc-Datei hinzufügt, Systempakete installiert und pi m aktualisiert. Der Moderator erklärt dann, wie man Python Version 3.7.12 installiert und ein Projektverzeichnis erstellt. Schließlich zeigt der Moderator den Zuschauern, wie pi m funktioniert, und überprüft die Python-Version.

  • 00:10:00 In diesem Abschnitt erklärt der Referent, wie man TensorFlow 2 und OpenCV auf einem Raspberry Pi installiert. Der Referent schlägt vor, Python 3.9 oder Python 3.7 mit dem entsprechenden TensorFlow-Wheel-Shell-Befehl zu verwenden. Sie führen die Installation eines virtuellen Umgebungspakets und die Erstellung einer Arbeitsumgebung durch. Anschließend erklärt der Referent, wie man Systempakete und TensorFlow installiert. Es gibt einen einfachen Test, um festzustellen, ob die Installation erfolgreich ist. Der Referent geht auch auf einen Fehler ein, auf den Benutzer stoßen können, und stellt die Lösung des Problems vor.

  • 00:15:00 In diesem Abschnitt gibt der Referent Anweisungen zur Installation von OpenCV auf Raspberry Pi. Benutzern von Raspberry Pi 3 empfiehlt er, einer bestimmten Methode zu folgen, die in einem bestimmten Video beschrieben wird, und dann einen einzigen Befehl auszuführen: pip install opencv-python. Die Ausführung dieses Befehls dauert nur zehn bis zwanzig Sekunden, und der Sprecher empfiehlt, keine optionalen Funktionen hinzuzufügen, es sei denn, Sie sind ein fortgeschrittener Benutzer. Das Video endet mit dem Testen der OpenCV- und TensorFlow-Installation mithilfe von Importbefehlen, und der Sprecher ermutigt die Zuschauer, Kommentare, Anfragen oder Feedback zu hinterlassen.
How to Install TensorFlow 2 and OpenCV on a Raspberry Pi
How to Install TensorFlow 2 and OpenCV on a Raspberry Pi
  • 2022.03.15
  • www.youtube.com
Here's how you can install TensorFlow 2 and OpenCV on your Raspberry Pi all in one video. There are some tricky steps so I try to walk through the whole proc...
 

Objektidentifikation & Tiererkennung mit Raspberry Pi + OpenCV + Python



Objektidentifikation & Tiererkennung mit Raspberry Pi + OpenCV + Python

Das Video zeigt ein Raspberry Pi 4-Projekt, das eine trainierte Bibliothek und eine Pi-Kamera verwendet, um eine umfangreiche Palette von 91 Tieren und Objekten in Echtzeit mit einer Vertrauensbewertung zu identifizieren. Der Moderator bietet eine gründliche Demonstration, wie die Hardware eingerichtet, der Raspberry Pi konfiguriert und die OpenCV-Software installiert wird, um Computer-Vision- und Bildverarbeitungsvorgänge in Echtzeit zu ermöglichen. Am Beispiel einer Tasse als Ziel erfahren die Zuschauer, wie sie den Code ändern können, um Signale über die GPIO-Pins des Raspberry Pi zu senden, um bestimmte Aktionen auszuführen, wenn OpenCV das Ziel identifiziert. Der Moderator hebt das Potenzial der Software für spannende Projekte hervor und bedankt sich bei den Teams von OpenCV und CoCo.

  • 00:00:00 In diesem Abschnitt des Videos stellt der Moderator das Projekt vor, einen Raspberry Pi 4 in Kombination mit einer trainierten Bibliothek und einer Pi-Kamera zu verwenden, um 91 einzigartige Objekte und Tiere in Echtzeit zu identifizieren, mit einer aktualisierten Vertrauensbewertung . Opencv-Software wird verwendet, um Ressourcen bereitzustellen, die bei der Lösung von Computer-Vision- und Bildverarbeitungsproblemen in Echtzeit helfen. Der Moderator führt Sie durch die Schritte, die zum Einrichten der Hardware, zum Konfigurieren des Raspberry Pi und zum Installieren der Software erforderlich sind. Dem Betrachter wird dann gezeigt, wie er den Code ausführt und wie er an mehreren Werten des Codes basteln kann, um den Prozess der Objekt- und Tieridentifikation zu verfeinern.

  • 00:05:00 In diesem Abschnitt demonstriert der Moderator, wie Code geändert wird, um Signale über die GPIO-Pins eines Raspberry Pi zu senden, wenn ein bestimmtes Ziel, in diesem Fall eine Tasse, von der OpenCV-Software gesehen wird. Der modifizierte Code befiehlt dem Raspberry Pi, sich zu drehen, wenn der Becher erkannt wird. Das Potenzial dieser Software, erstaunliche Projekte zu übernehmen, wird hervorgehoben, zusammen mit einem Dank an die Teams von OpenCV und CoCo für ihre Arbeit an dieser Software.
Object Identification & Animal Recognition With Raspberry Pi + OpenCV + Python
Object Identification & Animal Recognition With Raspberry Pi + OpenCV + Python
  • 2021.08.23
  • www.youtube.com
Subscribe For More!Article with All Steps - https://core-electronics.com.au/tutorials/object-identify-raspberry-pi.htmlActively search and classify all kinds...
 

Objekterkennung Raspberry Pi mit OpenCV Python



Objekterkennung Raspberry Pi mit OpenCV Python

Das YouTube-Video „Object Detection Raspberry Pi using OpenCV Python“ zeigt, wie man auf einen Code für die Objekterkennung, insbesondere die MobileNet-SSD, zugreift und ihn ändert. Das Tutorial betont die modulare Codierung und gibt Tipps zur Verwendung des Codes auf verschiedenen Plattformen, einschließlich Raspberry Pi. Das Video zeigt, wie man den Code in ein Modul umwandelt und eine Funktion erstellt, die bestimmte Objekte erkennt und steuert, was das Modell ausgibt. Der Moderator demonstriert auch, wie der Code für die Objekterkennung geändert werden kann, indem Parameter wie Schwellenwert und nicht maximale Unterdrückung hinzugefügt werden. Das Video stellt die notwendigen Dateien und Anleitungen zum Einrichten der Objekterkennung auf einem Raspberry Pi bereit und bietet eine Demonstration der Erkennung bestimmter Objekte. Der Moderator lädt die Zuschauer ein, seine Website für Download- und Abonnementinformationen zu besuchen.

  • 00:00:00 Das Video zeigt, wie man auf den Code für das Objekterkennungsprojekt zugreift und eine Funktion erstellt, die es Benutzern ermöglicht, Informationen zu bestimmten Objekten zu erhalten. Der verwendete Code stammt aus einem früheren Video, das mithilfe der MobileNet-SSD verschiedene Objekte erkennt. Das Tutorial betont auch das Schreiben von modularem Code, um das Entfernen und Hinzufügen von Code zu vereinfachen. Neben der Erklärung des Codes gibt der Tutor auch nützliche Tipps zum Schreiben und Verwenden des Codes auf verschiedenen Plattformen, einschließlich Raspberry Pi.

  • 00:05:00 In diesem Abschnitt beschreibt der Referent, wie man den zuvor geschriebenen Code in ein Modul umwandelt, auf das andere Skripte zugreifen können. Der Referent demonstriert, indem er eine Funktion namens „get_objects“ erstellt, die ein Bild als Eingabe nimmt und ein Bild mit Rechtecken und Objekterkennungsetiketten als Ausgabe zurückgibt. Der Referent zeigt auch, wie der „nms“-Parameter verwendet wird, um überlappende Objekterkennungen zu entfernen. Am Ende des Abschnitts hat der Referent eine modulare Funktion erstellt, mit der Objekte in einem Bild mit OpenCV und Python erkannt werden können.

  • 00:10:00 In diesem Abschnitt zeigt das Video, wie Sie Funktionen hinzufügen, um zu steuern, ob die Begrenzungsrahmen und Klassennamen angezeigt werden, um die Bildrate zu erhöhen oder zu verringern. Das Video erklärt, dass ein boolescher Wert festgelegt werden kann, um zu bestimmen, ob die Begrenzungsrahmen gezeichnet werden sollen, und zeigt dann, wie dies in der for-Schleife implementiert wird. Das Video fügt auch die Funktion hinzu, Informationen über den Begrenzungsrahmen und den Klassennamen zu senden, sodass Sie die eigentlichen Informationen erhalten, anstatt sie nur anzuzeigen. Schließlich zeigt das Video, wie Funktionen hinzugefügt werden, um bestimmte Objekte zu erkennen und zu steuern, was das Modell ausgibt.

  • 00:15:00 In diesem Abschnitt des Videos erklärt der Moderator, wie das Objekterkennungsmodul angepasst wird, um bestimmte Objekte zu erkennen. Der Benutzer kann eine Liste von zu erkennenden Objekten erstellen, indem er sie in die Objektliste einträgt. Wenn der Benutzer die Liste leer lässt, werden alle Klassen erkannt, in denen er trainiert wurde. Der Moderator zeigt ein Beispiel dafür, wie nur Becher erkannt werden, indem "Becher" zur Objektliste hinzugefügt wird. Der Liste können mehrere Objekte hinzugefügt werden, und das Programm erkennt nur diese Objekte. Der Presenter bietet auch eine Möglichkeit, das Objekterkennungsmodul von einem anderen Modul aus auszuführen, das das Hauptmodul verwendet.

  • 00:20:00 In diesem Abschnitt des Videos erklärt der Moderator, wie der Code für die Objekterkennung geändert werden kann, indem Parameter wie ein Schwellenwert und eine nicht maximale Unterdrückung (NMS) hinzugefügt werden. Der NMS-Parameter hilft, doppelte Erkennungen im Bild zu entfernen. Der Moderator zeigt, wie diese Parameter zum Code hinzugefügt werden, und demonstriert die Auswirkungen der Änderung ihrer Werte. Später im Video erklärt der Moderator, dass zum Ausführen des Codes auf einem Raspberry Pi OpenCV Version 4.3 oder höher benötigt wird. Wenn der Benutzer diese Version noch nicht installiert hat, kann er den Anweisungen des Moderators auf seiner Website folgen.

  • 00:25:00 In diesem Abschnitt demonstriert der Kursleiter, wie die Objekterkennung auf einem Raspberry Pi mit OpenCV und Python eingerichtet wird. Dazu gehören das Ersetzen mehrerer Dateien durch die neueste Version, das Importieren von cv2 und das Überprüfen der Versionsnummer. Der Kursleiter stellt auch die notwendigen Dateien für die Objekterkennung bereit und zeigt, wie der Dateipfad bearbeitet werden kann, damit er korrekt funktioniert. Darüber hinaus zeigt der Kursleiter ein Beispiel für die Objekterkennung mit einer externen Kamera und weist darauf hin, dass die Verarbeitung einige Zeit in Anspruch nehmen kann. Der Code wird erfolgreich ausgeführt und das Modell kann Objekte wie Flaschen, Tassen und Fernbedienungen erkennen.

  • 00:30:00 In diesem Abschnitt demonstriert der Moderator die Fähigkeit, bestimmte Objekte mit OpenCV und Python auf einem Raspberry Pi zu erkennen. Sie testen die Erkennung, indem sie die Bezeichnung von „remote“ auf „cup“ und dann auf „bottle“ ändern und die Erkennung erneut durchführen. Die Erkennung scheint auf dem Raspberry Pi gut zu funktionieren, ist aber langsam. Der Moderator erwähnt, dass er im nächsten Video dieselbe Erkennung auf einem Jetson Nano ausprobieren wird, um zu sehen, wie viel besser er abschneidet. Sie laden die Zuschauer auch ein, ihre Website zu besuchen, um die Dateien und Codes kostenlos herunterzuladen und ihren Kanal zu abonnieren.
Object Detection Raspberry Pi using OpenCV Python
Object Detection Raspberry Pi using OpenCV Python
  • 2020.09.05
  • www.youtube.com
In this video, we will look at how to run object detection on Raspberry Pi using OpenCV and python. We will create a modular function that will allow us to s...
 

Installieren und erstellen Sie OpenCV Python From Source auf Raspberry Pi 4 und 3



Installieren und erstellen Sie OpenCV Python From Source auf Raspberry Pi 4 und 3

Das YouTube-Video erklärt zwei Methoden zum Installieren von OpenCV für Python auf einem Raspberry Pi, wobei die erste Methode einen einzelnen Terminalbefehl zum Installieren vorgefertigter Binärdateien beinhaltet und die zweite Methode das Erstellen von OpenCV aus der Quelle erfordert. Nach dem Herunterladen der Quelle aus dem Github-Repository bestehen die letzten Schritte zum Erstellen von OpenCV aus der Quelle auf einem Raspberry Pi darin, die Befehle cmake und make auszuführen, was mehrere Stunden dauern kann, bevor der Befehl „sudo make install“ eingegeben wird. Das Video zeigt, wie Sie die erfolgreiche Installation mit einem Python-Befehl überprüfen. Das Video endet mit der Aufforderung, es zu mögen, zu abonnieren und im Kommentarbereich Fragen zu stellen.

  • 00:00:00 In diesem Abschnitt des Videos erklärt der Moderator zwei Methoden zur Installation von OpenCV für Python auf einem Raspberry Pi. Die erste Methode beinhaltet die Installation vorgefertigter Binärdateien mit einem einzigen Terminalbefehl, was einfach ist, aber möglicherweise nicht die neueste Version von OpenCV garantiert. Die zweite Methode besteht darin, OpenCV aus der Quelle zu erstellen, was zunächst das Installieren einiger Abhängigkeiten, das Herunterladen der Quelle aus dem Github-Repository und das Erstellen und Ausführen eines Befehls zum Erstellen der Quelle erfordert. Beide Methoden werden Schritt für Schritt im Video gezeigt.

  • 00:05:00 In diesem Abschnitt erläutert das Video die letzten Schritte zum Installieren und Erstellen von OpenCV Python aus dem Quellcode auf einem Raspberry Pi 4 oder 3. Nachdem Sie den Befehl cmake und dann den Befehl make ausgeführt haben, was mehrere Stunden dauern kann, Der letzte Schritt besteht darin, "sudo make install" einzugeben. Um zu überprüfen, ob die Installation erfolgreich war, zeigt das Video die Eingabe des Befehls „python3“ und dann „import cv2 as cv“ gefolgt von einer Druckanweisung. Wenn das Terminal eine Meldung mit der OpenCV-Version zurückgibt, war die Installation erfolgreich. Das Video ermutigt die Zuschauer, den Kanal zu mögen und zu abonnieren und im Kommentarbereich Fragen zu stellen.
Install and build OpenCV python From Source on Raspberry pi 4 and 3
Install and build OpenCV python From Source on Raspberry pi 4 and 3
  • 2021.04.04
  • www.youtube.com
In this video you will learn how to install opencv for python in raspberry pi with two different methods, so if you start using raspberry pi and want to use ...
 

Neurales Netz in Ihrem Telefon: Von der Schulung bis zur Bereitstellung durch ONNX



Neurales Netz in Ihrem Telefon: Von der Schulung bis zur Bereitstellung durch ONNX

In diesem Video zu „Neural Net in your Phone: From Training to Deployment through ONNX“ demonstriert der Moderator, wie ein neuronales Netzwerk mithilfe der iNaturalist-Community-API trainiert wird, um verschiedene Pilzarten danach zu identifizieren, ob sie giftig oder essbar sind. Anschließend erklären sie, wie das Modell mithilfe des Core ML-Pakets von Apple auf einem iPhone bereitgestellt wird. Der Referent weist auch darauf hin, wie wichtig es ist, das trainierte Modell im ONNX-Dateiformat zu formatieren, bevor es in Core ML importiert wird. Der Moderator betont, dass das EfficientNet das zukünftige Modell für die Bildklassifizierung sein wird, wobei bei der Modellauswahl Sorgfalt erforderlich ist, und schlägt den Bau von Klassifikatoren für Pflanzen, Tiere oder Vögel vor.

  • 00:00:00 In diesem Abschnitt erklärt der Moderator, wie ein Pilzbild-Klassifikator mithilfe der API der iNaturalist-Community trainiert wird, um Hunderte verschiedener Bilder aller Arten von Pilzarten zu erhalten. Mit Mathematica speicherten sie die Bilder und klassifizierten sie danach, ob sie giftig oder essbar waren, basierend auf 11 giftigen und 11 essbaren Pilzarten, die in ihrer Region verbreitet sind. Die Bilder wurden vor dem späteren Training des neuronalen Netzes beschnitten und in der Größe verändert. Der Moderator demonstriert sowohl mit dem Fly Agarik als auch mit dem Death Cap, einem tödlichen Pilz, der ebenfalls durch dieselbe Methode effektiv klassifiziert wurde.

  • 00:05:00 In diesem Abschnitt erörtert der Referent den Prozess des Trainierens eines neuronalen Netzwerks zum Identifizieren verschiedener Pilzarten unter Verwendung eines vortrainierten Netzmodells aus dem Netzspeicher. Sie beschreiben, wie sie Klassenbezeichnungen und Trainings- und Testsätze erstellt haben und wie sie Transferlernen verwendet haben, um das Modell mit einer stochastischen Gradientenabstiegsmethode zu trainieren. Sie erwähnen auch die Bedeutung des Exports des trainierten Modells in das ONNX-Dateiformat, ein offenes Austauschformat für neuronale Netzwerke, das vor einigen Jahren von Branchenführern im maschinellen Lernen entwickelt wurde.

  • 00:10:00 In diesem Abschnitt erläutert der Referent, wie neuronale Netze mithilfe des Core ML-Pakets von Apple auf einem Gerät mit iOS-Betriebssystem bereitgestellt werden können. Um das Modell in das Core ML-Format zu konvertieren, zeigt der Referent, wie man mit CoreML-Tools verschiedene Arten von Netzmodellen importiert, darunter auch ONNX, und wie man Vorverarbeitungsargumente und Klassenlabels für den beispielhaft verwendeten Pilz-Datensatz angibt. Der Referent weist auch darauf hin, dass die Core ML-Modelle mit einem Encoder und Decoder ähnlich funktionieren wie die Modelle für natürliche Sprache, und hebt einige Unterschiede zwischen den beiden Formaten in Bezug auf Pixelwerte und Farbverzerrung hervor.

  • 00:15:00 In diesem Abschnitt erläutert der Referent die Schritte zum Bereitstellen eines Core ML-Modells auf einem iPhone. Sie demonstrieren, wie das bereits vorhandene MobileNet-Modell in einem Xcode-Projekt durch ihr eigenes Pilzartenmodell ersetzt werden kann. Der Referent zeigt, dass das Modell korrekt funktioniert, indem er es an verschiedenen Pilzen testet, die er im Wald gefunden hat. Sie ermutigen die Zuhörer, sich ihr Jupyter-Notizbuch anzusehen, um weitere Informationen zu erhalten.

  • 00:20:00 In diesem Abschnitt erwähnt der Referent, dass das leistungsstärkste Modell für die Bildklassifizierung das EfficientNet ist, das in Zukunft verfügbar sein wird. Allerdings muss der Anwender darauf achten, kein zu speicherintensives EfficientNet-Modell zu wählen. Der Referent warnt davor, den Klassifikator ohne fachkundige Beratung zum Kochen zu verwenden, da einige Pilzarten tödlich sein können. Für die Zukunft plant der Referent, einen Workflow für die Präsentation zu erstellen und Blogbeiträge zum Thema anzubieten. Sie planen auch, Beispiele für Audio aufzunehmen, wie z. B. das Identifizieren von Vogelgesängen. Der Referent schlägt vor, eine Studiengruppe für solche Anwendungen und Themen zu gründen, und betont, dass der ONNX-Punkt von der Verwendung von Android abhängt.

  • 00:25:00 In diesem Abschnitt erörtert der Referent verschiedene Optionen zum Importieren von Artenbeobachtungen und andere hilfreiche Funktionen, wie z. B. das Importieren von gpif-Suche, gpif-Import und globalen Daten, die zum Erstellen von Klassifikatoren für Tiere oder Pflanzen verwendet werden können. Der Referent dankt auch dem Publikum für seine Aufmerksamkeit und lädt es ein, weitere Fragen in der Machine-Learning-Gruppe in der Community zu stellen.
Neural Net in your Phone: From Training to Deployment through ONNX
Neural Net in your Phone: From Training to Deployment through ONNX
  • 2020.12.10
  • www.youtube.com
Current smartphones are powerful enough to run neural networks locally without the need of a cloud server connection. But deploying and running a custom neur...
 

ONNX auf MCUs



ONNX auf MCUs

Rohit Sharma spricht über die Herausforderungen und Möglichkeiten, ONNX-Modelle auf Mikrocontrollern auszuführen. Er betont, dass diesen Geräten zwar die Ressourcen von Hochleistungsservern fehlen, es aber aufgrund der Verbesserung der Hardwareressourcen und der Bemühungen der KI-Community, die Modellgröße zu reduzieren, eine wachsende Zahl von Anwendungen für maschinelles Lernen für winzige Geräte gibt. Sharma bespricht zwei Tools für die einfache Implementierung von maschinellem Lernen auf Mikrocontrollern: DeepSea, ein Open-Source-Ahead-of-Time-Compiler, der Python unterstützt und es Entwicklern ermöglicht, benutzerdefinierte ML-Algorithmen zu erstellen, und Canvas, eine No-Code/Low-Code-Plattform, die über 70 winzige ML-Anwendungen, die an den Datensatz des Benutzers angepasst werden können. Er stellt zwei Anwendungsfälle für diese Tools vor, darunter einen tragbaren Handschuh, der Zeichengesten in Wörter umwandelt, und eine schwache Worterkennung für sprachunterstützte Geräte wie Amazon Echo.

  • 00:00:00 In diesem Abschnitt erörtert Rohit Sharma die Herausforderungen und Chancen beim Ausführen von ONNX-Modellen auf Mikrocontrollern, bei denen es sich um winzige Geräte handelt, die monatelang mit Batterien betrieben werden. Während diese Geräte nicht über die Rechenressourcen von Hochleistungsservern mit Beschleunigern oder Einplatinencomputern verfügen, ist die zunehmende Zahl von Anwendungen für maschinelles Lernen, die auf winzigen Geräten ausgeführt werden, darauf zurückzuführen, dass MCU-Anbieter die Hardwareressourcen weiter verbessern, während die KI-Forschungsgemeinschaft arbeitet daran, die Modellgröße zu reduzieren. Sharma erklärt, dass alle winzigen ML-Apps Edge-KI-Apps sind, aber nicht alle Edge-KI-Apps sind winzige ML-Apps, da der Unterschied im Stromverbrauch liegt. Anschließend erläutert er den Prozess der Kompilierung von ONNX-Modellen mit DeepSea, einem herstellerunabhängigen Open-Source-Compiler für Deep-Learning-Bibliotheken und einem Inferenz-Framework, das für Geräte mit kleinem Formfaktor einschließlich Mikrocontrollern, IoT und Edge-Geräten entwickelt wurde.

  • 00:05:00 In diesem Abschnitt beschreibt der Referent zwei Tools zur einfachen Implementierung von maschinellem Lernen auf Mikrocontrollern. Das erste Tool ist DeepSea, ein Open-Source-Ahead-of-Time-Compiler (AOT), der Python unterstützt und es Entwicklern ermöglicht, benutzerdefinierte Algorithmen für maschinelles Lernen zu erstellen. Das zweite Tool ist Canvas, eine No-Code/Low-Code-Plattform, die eine Galerie mit über 70 winzigen Anwendungen für maschinelles Lernen bereitstellt. Canvas ermöglicht die Anpassung dieser Anwendungen, um ein winziges maschinelles Lernmodell zu erstellen, das für den Datensatz des Benutzers geeignet ist. Der Referent stellte auch zwei Anwendungsfälle für diese Tools vor – einen tragbaren Handschuh, der Zeichengesten in gesprochene Wörter umwandelt, und eine Erkennung schwacher Wörter, um sprachunterstützte Geräte wie Amazon Echo zu aktivieren.
ONNX on MCUs
ONNX on MCUs
  • 2021.03.18
  • www.youtube.com
Bring your ONNX models on MCUs with http://cainvas.ai-tech.systems/​cAInvas boasts support for ML models derived from all popular platform like TensorFlow, k...