트레이딩을 위한 ONNX 학습 - 페이지 10

 

개체 감지 OpenCV Python | 쉽고 빠르게 (2020)



개체 감지 OpenCV Python | 쉽고 빠르게 (2020)

"Object Detection OpenCV Python | Easy and Fast (2020)"라는 제목의 이 비디오 자습서에서 발표자는 Python에서 OpenCV 라이브러리를 사용하여 개체 감지기를 만드는 방법을 시연합니다. 이 비디오는 일반적으로 발견되는 여러 개체를 실시간으로 감지할 수 있는 정확도와 속도 사이의 균형을 갖춘 감지기를 만드는 데 중점을 둡니다. MobileNet SSD 모델은 속도와 정확성으로 인해 객체 감지에 사용되며 coco 데이터 세트는 사람, 자전거 및 자동차와 같은 클래스를 감지하는 데 사용됩니다. 이 비디오는 zip 함수를 사용하여 다양한 변수를 반복하여 감지된 개체 주위에 사각형을 만드는 방법과 웹캠 피드에서 개체 감지를 실행하도록 코드를 수정하는 방법을 보여줍니다. 또한 발표자는 각 개체의 확률을 이해하기 위해 임계값을 조정하고 감지된 개체에 신뢰도 값을 추가하는 방법을 설명합니다.

  • 00:00:00 동영상의 이 섹션에서는 제작자가 정확도와 속도 사이의 적절한 균형을 갖춘 물체 감지기를 만드는 방법에 대해 설명합니다. 탐지기는 여러 공통 개체를 탐지하는 동안 실시간으로 실행할 수 있으며 OpenCV 이외의 실행을 위해 타사 라이브러리가 필요하지 않습니다. 동영상은 객체 감지기를 만드는 코드를 살펴보고 정확도와 속도 사이의 균형이 잘 맞고 CPU에서 거의 실시간으로 실행할 수 있는 MobileNet SSD의 사용법을 자세히 설명합니다. 일반적인 개체를 감지합니다. 마지막으로 opencv-python은 감지기를 실행하는 데 필요한 유일한 라이브러리이며 coco 데이터 세트는 사람, 자전거 및 자동차와 같은 클래스를 감지하는 데 사용됩니다.

  • 00:05:00 비디오 자습서의 이 섹션에서 발표자는 Python에서 OpenCV 라이브러리를 사용하여 이미지를 표시하는 방법을 시연합니다. with open 함수를 사용하여 coco 데이터 세트에서 개체 이름을 가져오고 배열로 읽습니다. 그런 다음 구성 파일과 가중치를 가져오고 OpenCV 기능을 사용하여 모델을 만듭니다. 경계 상자를 추출하기 위해 기술을 적용해야 했던 YOLO 비디오 자습서와 달리 함수는 우리를 위해 모든 처리를 수행하고 이미지를 전달하기만 하면 경계 상자와 ID 이름이 표시됩니다.

  • 00:10:00 이 섹션에서는 동영상 자습서에서 OpenCV 및 Python을 사용하여 객체 감지를 수행하는 방법을 설명합니다. 탐지 모델을 구성한 후 코드는 입력 이미지를 모델로 보내고 클래스 ID, 신뢰 수준 및 경계 상자를 반환합니다. 이 튜토리얼은 광범위한 설치나 형식 없이 가능한 한 빠르고 쉽게 물체 감지기를 시작하고 실행하는 데 중점을 둡니다. 이 코드는 자율주행차나 로봇 장치와 같은 다양한 애플리케이션에 활용될 수 있습니다. 튜토리얼은 또한 클래스 ID의 중요성과 클래스 이름을 참조할 때 해당 값에서 1을 빼는 것의 중요성에 대해서도 다룹니다.

  • 00:15:00 이 섹션에서 강사는 zip 기능을 사용하여 세 가지 다른 변수 또는 정보를 반복하는 방법을 설명합니다. zip을 사용하여 신뢰도 및 경계 상자 변수를 평면화한 다음 for 루프를 사용하여 감지된 개체 주위에 사각형을 만듭니다. 그들은 또한 putText 함수를 사용하여 감지된 개체의 이름을 쓰고 클래스 이름 변수를 사용하여 적절한 이름을 얻기 위해 클래스 ID에서 하나를 뺍니다. 강사는 라벨이 더 잘 보이도록 다른 매개변수를 추가하고 텍스트를 모두 대문자로 변경하기도 합니다. 마지막으로 이미지에서 사람을 성공적으로 감지합니다.

  • 00:20:00 이 섹션에서 자습서는 정적 이미지 대신 웹캠 피드에서 개체 감지를 실행하도록 코드를 수정하는 방법을 보여줍니다. 이 코드는 "cv2.videoCapture"를 사용하여 웹캠을 초기화하고 이미지 크기 매개변수를 설정합니다. while 루프는 웹캠 피드를 지속적으로 캡처하고 표시하는 데 사용되며 표시하기 전에 개체가 감지되었는지 확인하는 조건이 추가됩니다. 시스템은 웹캠 피드를 사용하여 실시간으로 키보드, 모니터, 휴대폰 및 마우스와 같은 개체를 정확하게 감지합니다.

  • 00:25:00 이 섹션에서 저자는 물체 감지 알고리즘이 최고의 정확도는 아닐지라도 좋은 속도와 정확도로 물체를 감지할 수 있다고 설명합니다. 그런 다음 비디오는 임계값을 변경하고 감지된 개체에 신뢰도 값을 추가하는 방법을 보여줍니다. 그런 다음 유튜버는 프로그램을 실행하고 각 개체의 확률을 이해할 수 있을 만큼 충분히 눈에 띄고 명확하게 감지된 개체에 대한 신뢰도 값이 표시되는 방법을 보여줍니다.
Object Detection OpenCV Python | Easy and Fast (2020)
Object Detection OpenCV Python | Easy and Fast (2020)
  • 2020.08.30
  • www.youtube.com
In this tutorial, we are going to learn how to detect objects using OpenCV and python. The Object Detection OpenCV method we will use is a sweet balance betw...
 

Raspberry Pi에서 TensorFlow 객체 감지를 설정하는 방법



Raspberry Pi에서 TensorFlow 객체 감지를 설정하는 방법

이 동영상에서는 TensorFlow Object Detection API를 Raspberry Pi에 설정하는 과정을 단계별로 설명합니다. 먼저 TensorFlow, OpenCV 및 protobuf를 비롯한 필수 패키지가 설치됩니다. 그런 다음 TensorFlow 구조가 설정되고 TensorFlow 감지 모델 동물원에서 SSD Lite 모델이 다운로드됩니다. 객체 감지를 위한 Python 스크립트가 제공되며 뷰어는 Pi 카메라 또는 USB 웹캠과 함께 사용하는 방법을 보여줍니다. 비디오는 사용자 정의 모델 다운로드 및 사용과 같은 고급 주제도 다룹니다. 라즈베리 파이는 외부에 거주하는 고양이를 감지하면 메시지를 보낼 수 있는 디지털 고양이 플랩과 같이 저비용 및 휴대성을 요구하는 창의적인 프로젝트에 권장됩니다.

  • 00:00:00 비디오의 이 섹션에서 내레이터는 Raspberry Pi에서 TensorFlow 객체 감지 API를 설정하는 방법에 대한 가이드를 제공합니다. 단계에는 Raspberry Pi 업데이트, TensorFlow, OpenCV 및 protobuf 설치, TensorFlow 디렉터리 구조 설정 및 개체 감지기 테스트가 포함됩니다. 해설자는 또한 numpy, pillow, scipy 및 matplotlib와 같은 추가 종속성을 설치할 것을 권장합니다. 또한 비디오는 원활한 처리를 위해 libatlas 및 libAV 코덱 설치와 같은 유용한 팁을 제공합니다.

  • 00:05:00 이 섹션에서는 발표자가 Raspberry Pi에 TensorFlow 객체 감지 API를 설치하는 방법에 대한 단계별 가이드를 제공합니다. 먼저 lib xvid core dev, lib x264 dev, QT for dev 도구를 포함하여 필요한 패키지를 설치한 다음 OpenCV를 설치합니다. 그런 다음 연사는 Raspberry Pi에 protobuf를 설치하는 데 따른 문제를 설명하고 proto bruh fun 소스를 컴파일하는 데 필요한 패키지 가져오기 및 protobuf 릴리스 페이지 다운로드를 포함하여 소스에서 컴파일하는 방법을 시청자에게 안내합니다. 마지막으로 화자는 필요한 경로 명령을 제공하고 프로토콜 버퍼 Python 구현을 설치하는 명령을 내립니다.

  • 00:10:00 이 섹션에서는 발표자가 Raspberry Pi에서 TensorFlow 디렉터리를 설정하는 과정을 설명합니다. 여기에는 TensorFlow용 디렉터리를 만들고 GitHub에서 TensorFlow 리포지토리를 다운로드하는 작업이 포함됩니다. TensorFlow 리포지토리 내부의 일부 디렉터리를 가리키도록 Python 경로 환경 변수를 수정해야 하며 이는 bash RC 파일을 수정하여 수행됩니다. 발표자는 TensorFlow 감지 모델 동물원에서 SSD Lite 모델을 다운로드하는 방법과 Pro Talk를 사용하여 객체 감지 API에서 사용하는 프로토콜 버퍼 파일을 컴파일하는 방법도 설명합니다. 마지막으로 Pi 카메라 또는 USB 웹캠의 라이브 피드에서 개체를 감지하기 위한 Python 스크립트가 제공되며 해당 코드는 발표자의 GitHub 저장소에서 사용할 수 있습니다.

  • 00:15:00 이 섹션에서는 발표자가 Raspberry Pi에서 TensorFlow 객체 감지를 사용하는 방법을 시청자에게 안내합니다. 먼저 시청자에게 개체 감지를 위한 Python 스크립트를 다운로드하고 실행하도록 지시하여 구성 메뉴에서 PI 카메라가 활성화되었는지 확인합니다. 그들은 또한 Tensorflow가 많은 메모리를 사용하기 때문에 다른 모든 응용 프로그램, 특히 웹 브라우저를 닫는 것이 좋습니다라고 설명합니다. 발표자는 또한 사용자가 스스로 훈련한 모델을 사용하는 방법을 보여주고 예를 들어 자신의 카드 감지 모델에 대한 Dropbox 링크를 제공합니다. 뷰어는 초기화하는 데 최대 1분이 걸릴 수 있는 객체 감지 스크립트를 실행한 다음 일반적인 객체를 감지하고 직사각형이 있는 창에 표시하는 것이 좋습니다. 마지막으로 화자는 외부에 거주하는 고양이를 감지하면 메시지를 보내는 디지털 고양이 플랩과 같이 저비용 및 휴대성을 요구하는 창의적인 애플리케이션에 라즈베리 파이를 추천합니다.
How to Set Up TensorFlow Object Detection on the Raspberry Pi
How to Set Up TensorFlow Object Detection on the Raspberry Pi
  • 2018.07.18
  • www.youtube.com
Learn how to install TensorFlow and set up the TensorFlow Object Detection API on your Raspberry Pi! These instructions will allow you to detect objects in l...
 

Raspberry Pi + OpenCV + Python으로 얼굴 인식



Raspberry Pi + OpenCV + Python으로 얼굴 인식

Core Electronics는 Raspberry Pi에서 OpenCV 및 Python의 얼굴 인식 패키지를 사용하여 얼굴 인식 시스템을 만드는 방법을 보여줍니다. 이 자습서에는 "train_model.py"라는 Python 코드를 사용하여 시스템을 교육하고 "facial_req.py"라는 식별 코드를 통해 시스템을 테스트하는 내용이 포함되어 있습니다. 이 시스템은 익숙하지 않은 얼굴과 알려진 얼굴을 구별할 수 있으며 시스템이 알려진 얼굴을 인식하면 서보도 회전시킬 수 있습니다. 제작자는 이러한 종류의 소프트웨어를 가능하게 한 OpenCV 및 안면 인식 패키지 팀과 Carolyn Dunn의 공로를 인정하며 향후 프로젝트에서 그 가능성에 대한 높은 기대를 가지고 있습니다.

  • 00:00:00 이 섹션에서는 Core Electronics가 Raspberry Pi에서 OpenCV 및 Python의 얼굴 인식 패키지를 사용하여 얼굴 인식 시스템을 만드는 방법을 시연합니다. 먼저 라즈베리 파이, 공식 카메라, 마이크로 SD 카드, HDMI 코드, 전원 공급 장치 등 필요한 자료를 수집합니다. 라즈베리 파이를 구성하고 패키지를 설치한 후 "train_model.py"라는 파이썬 코드를 사용하여 안면 인식 시스템을 학습시킨 다음 "facial_req.py"라는 식별 코드를 사용하여 테스트하는 방법을 보여줍니다. 이 프로그램을 사용하면 Raspberry Pi 카메라가 실시간으로 얼굴을 검색하고 얼굴을 찾으면 올바르게 식별할 수 있습니다. 시스템은 또한 "알 수 없음" 또는 대상의 이름을 각각 표시하여 알 수 없는 얼굴과 알려진 얼굴을 구별할 수 있습니다.

  • 00:05:00 이 섹션에서는 라즈베리 파이 시스템이 소유자의 얼굴을 인식해야만 회전할 수 있는 라즈베리 파이의 GPIO 핀을 사용하여 서보를 제어하기 위해 스크립트에 6줄의 코드를 추가하는 방법을 비디오 제작자가 설명합니다. 시스템은 얼굴을 인식하지 못하거나 얼굴을 알 수 없는 경우 서보를 활성화하지 않습니다. 영상 제작자는 자신의 얼굴을 숨기고 얼굴 인식 시 서보가 어떻게 움직이는지 보여줍니다. 그는 OpenCV 및 얼굴 인식 패키지 팀과 Carolyn Dunn이 이러한 시스템이 잘 작동하도록 하는 소프트웨어를 만든 공로를 인정합니다. 비디오 제작자는 이 소프트웨어가 프로젝트를 놀라운 장소로 가져갈 수 있는 엄청난 잠재력을 가지고 있다고 믿습니다.
Face Recognition With Raspberry Pi + OpenCV + Python
Face Recognition With Raspberry Pi + OpenCV + Python
  • 2021.07.05
  • www.youtube.com
Subscribe For More!Article with All Steps - https://core-electronics.com.au/tutorials/face-identify-raspberry-pi.htmlTeach your Pi to spot human faces, train...
 

Raspberry Pi에 TensorFlow 2 및 OpenCV를 설치하는 방법



Raspberry Pi에 TensorFlow 2 및 OpenCV를 설치하는 방법

이 비디오는 Raspberry Pi에 TensorFlow 2 및 OpenCV를 설치하는 방법에 대한 단계별 가이드를 제공합니다. 발표자는 최신 Pi, 특히 64비트 Pi 4의 중요성을 강조하고 Raspberry Pi OS 설치 방법, 시스템 업데이트 및 업그레이드 방법, 시스템에 적합한 TensorFlow 셸 스크립트 선택 방법에 대한 지침을 제공합니다. 비디오는 또한 설치에 문제가 있는 사람들을 위해 Python 버전을 3.7로 변경하는 방법을 설명하고 가상 환경, 시스템 패키지, TensorFlow 및 OpenCV 설치에 대한 자세한 지침을 제공합니다. 비디오 전체에서 발표자는 잠재적인 오류에 대한 유용한 팁과 솔루션을 제공합니다. 비디오는 가져오기 명령을 사용하여 OpenCV 및 TensorFlow 설치를 테스트하는 것으로 마무리되며 시청자가 피드백이나 요청을 남기도록 권장합니다.

  • 00:00:00 비디오의 이 섹션에서 발표자는 TensorFlow 및 OpenCV의 올인원 설치를 위해 Raspberry Pi를 설정하는 방법을 설명합니다. 먼저 새로운 Pi, 특히 Pi 4를 사용하는 것의 중요성부터 시작합니다. 64비트입니다. 비디오는 Raspberry Pi OS를 설치하고 Raspberry Pi 이미저를 사용하여 호스트 이름, 사용자 이름, 암호 및 Wi-Fi 구성을 설정하는 과정을 다룹니다. Pi를 부팅한 후 발표자는 시스템에 적합한 TensorFlow 셸 스크립트를 선택하는 데 중요한 Python 버전 및 "uname -m" 출력을 확인하기 전에 업데이트 및 업그레이드하도록 시청자에게 지시합니다. 발표자는 또한 TensorFlow가 Raspberry Pi와 함께 작동하도록 할 수 있는 비공개로 호스팅된 셸 스크립트 및 휠 파일로 시청자를 안내합니다.

  • 00:05:00 비디오의 이 섹션에서 발표자는 TensorFlow 2 및 OpenCV를 Raspberry Pi에 설치하는 데 문제가 있는 사용자를 위해 Python 버전을 3.7로 변경하는 방법에 대해 설명합니다. 이를 위해 뷰어는 pi m을 사용하고 필요한 Python 버전을 설치해야 합니다. 발표자는 pi m을 설치하고, dot bash rc 파일에 줄을 추가하고, 시스템 패키지를 설치하고, pi m을 업데이트하는 방법을 보여줍니다. 이어서 발표자는 Python 버전 3.7.12 설치 및 프로젝트 디렉토리 생성 방법을 설명합니다. 마지막으로 발표자는 시청자에게 pi m이 어떻게 작동하는지 보여주고 Python 버전을 확인합니다.

  • 00:10:00 이 섹션에서는 발표자가 Raspberry Pi에 TensorFlow 2 및 OpenCV를 설치하는 방법을 설명합니다. 화자는 적절한 TensorFlow 휠 쉘 명령과 함께 Python3.9 또는 Python3.7을 사용할 것을 제안합니다. 가상 환경 패키지를 설치하고 작업할 환경을 만드는 과정을 안내합니다. 그런 다음 스피커는 시스템 패키지 및 TensorFlow를 설치하는 방법을 설명합니다. 설치가 성공했는지 확인하기 위한 간단한 테스트가 제공됩니다. 또한 화자는 사용자가 직면할 수 있는 오류에 대해 논의하고 문제에 대한 해결책을 제시합니다.

  • 00:15:00 이 섹션에서는 발표자가 Raspberry Pi에 OpenCV를 설치하기 위한 지침을 제공합니다. Raspberry Pi 3 사용자의 경우 특정 비디오에 자세히 설명된 특정 방법을 따른 다음 단일 명령(pip install opencv-python)을 실행할 것을 권장합니다. 이 명령은 실행하는 데 10~20초밖에 걸리지 않으며, 스피커는 고급 사용자가 아닌 이상 옵션 기능을 추가하지 말 것을 권장합니다. 비디오는 가져오기 명령을 사용하여 OpenCV 및 TensorFlow 설치를 테스트하는 것으로 끝납니다. 스피커는 시청자가 의견, 요청 또는 피드백을 남기도록 권장합니다.
How to Install TensorFlow 2 and OpenCV on a Raspberry Pi
How to Install TensorFlow 2 and OpenCV on a Raspberry Pi
  • 2022.03.15
  • www.youtube.com
Here's how you can install TensorFlow 2 and OpenCV on your Raspberry Pi all in one video. There are some tricky steps so I try to walk through the whole proc...
 

Raspberry Pi + OpenCV + Python을 사용한 개체 식별 및 동물 인식



Raspberry Pi + OpenCV + Python을 사용한 개체 식별 및 동물 인식

이 비디오는 훈련된 라이브러리와 Pi 카메라를 활용하여 91종의 동물과 물체를 신뢰도 등급으로 실시간으로 식별하는 Raspberry Pi 4 프로젝트를 보여줍니다. 발표자는 실시간 컴퓨터 비전 및 이미지 처리 작업을 활성화하기 위해 하드웨어 설정, Raspberry Pi 구성 및 OpenCV 소프트웨어 설치 방법에 대한 철저한 데모를 제공합니다. 컵을 대상으로 하는 예를 통해 뷰어는 OpenCV가 대상을 식별할 때 특정 작업을 실행하기 위해 Raspberry Pi의 GPIO 핀을 통해 신호를 보내도록 코드를 수정하는 방법을 배웁니다. 발표자는 흥미로운 프로젝트에 대한 소프트웨어의 잠재력을 강조하고 OpenCV 및 CoCo 팀에 감사를 표합니다.

  • 00:00:00 비디오의 이 섹션에서 발표자는 Raspberry Pi 4를 훈련된 라이브러리 및 Pi 카메라와 함께 사용하여 91개의 고유한 개체와 동물을 실시간으로 식별하고 신뢰도를 업데이트하는 프로젝트를 소개합니다. . Opencv 소프트웨어는 실시간 컴퓨터 비전 및 이미징 처리 문제를 해결하는 데 도움이 되는 리소스를 제공하는 데 활용됩니다. 발표자는 하드웨어 설정, Raspberry Pi 구성 및 소프트웨어 설치에 필요한 단계를 안내합니다. 그런 다음 뷰어는 코드를 실행하는 방법과 개체 및 동물 식별 프로세스를 개선하기 위해 코드의 여러 값을 수정하는 방법을 보여줍니다.

  • 00:05:00 이 섹션에서 발표자는 OpenCV 소프트웨어에서 특정 대상(이 경우 컵)을 볼 때마다 Raspberry Pi의 GPIO 핀을 통해 신호를 보내도록 코드를 수정하는 방법을 보여줍니다. 수정된 코드는 컵이 감지될 때마다 라즈베리 파이가 회전하도록 명령합니다. 이 소프트웨어에 대한 작업에 대한 OpenCV 및 CoCo 팀에 대한 감사와 함께 놀라운 프로젝트를 수행할 수 있는 이 소프트웨어의 잠재력이 강조됩니다.
Object Identification & Animal Recognition With Raspberry Pi + OpenCV + Python
Object Identification & Animal Recognition With Raspberry Pi + OpenCV + Python
  • 2021.08.23
  • www.youtube.com
Subscribe For More!Article with All Steps - https://core-electronics.com.au/tutorials/object-identify-raspberry-pi.htmlActively search and classify all kinds...
 

OpenCV Python을 사용하는 객체 감지 Raspberry Pi



OpenCV Python을 사용하는 객체 감지 Raspberry Pi

YouTube 동영상 "Object Detection Raspberry Pi using OpenCV Python"은 객체 감지, 특히 MobileNet SSD를 위한 코드에 액세스하고 수정하는 방법을 보여줍니다. 이 자습서는 모듈식 코딩을 강조하고 Raspberry Pi를 비롯한 다양한 플랫폼에서 코드를 사용하기 위한 팁을 제공합니다. 비디오는 코드를 모듈로 변환하고 특정 객체를 감지하고 모델 출력을 제어하는 함수를 생성하는 방법을 보여줍니다. 또한 발표자는 임계값 및 비최대 억제와 같은 매개변수를 추가하여 물체 감지를 위한 코드를 수정하는 방법을 시연합니다. 비디오는 Raspberry Pi에서 개체 감지를 설정하는 데 필요한 파일과 지침을 제공하고 특정 개체 감지 데모를 제공합니다. 발표자는 다운로드 및 구독 정보를 위해 자신의 웹사이트를 방문하도록 시청자를 초대합니다.

  • 00:00:00 이 비디오는 개체 감지 프로젝트의 코드에 액세스하고 사용자가 특정 개체에 대한 정보를 얻을 수 있는 기능을 만드는 방법을 보여줍니다. 사용된 코드는 MobileNet SSD를 사용하여 다양한 객체를 감지하는 이전 비디오에서 가져온 것입니다. 튜토리얼은 또한 코드를 쉽게 제거하고 추가할 수 있도록 모듈식 코드 작성을 강조합니다. 코드를 설명하는 것 외에도 튜터는 Raspberry Pi를 포함한 다양한 플랫폼에서 코드를 작성하고 사용하는 방법에 대한 유용한 팁을 제공합니다.

  • 00:05:00 이 섹션에서 발표자는 이전에 작성된 코드를 다른 스크립트에서 액세스할 수 있는 모듈로 전환하는 방법을 설명합니다. 발표자는 이미지를 입력으로 사용하고 직사각형 및 물체 감지 레이블이 있는 이미지를 출력으로 반환하는 "get_objects"라는 함수를 생성하여 시연합니다. 연사는 또한 "nms" 매개변수를 사용하여 겹치는 물체 감지를 제거하는 방법도 보여줍니다. 섹션이 끝날 무렵 발표자는 OpenCV 및 Python을 사용하여 이미지에서 개체를 감지하는 데 사용할 수 있는 모듈식 함수를 만들었습니다.

  • 00:10:00 이 섹션에서 비디오는 프레임 속도를 높이거나 낮추기 위해 경계 상자 및 클래스 이름을 표시할지 여부를 제어하는 기능을 추가하는 방법을 보여줍니다. 동영상에서는 경계 상자를 그릴지 여부를 결정하기 위해 부울 값을 설정할 수 있다고 설명하고 for 루프에서 이를 구현하는 방법을 보여줍니다. 영상에는 바운딩 박스와 클래스 이름에 대한 정보를 보내는 기능도 추가되어 단순히 표시하는 것이 아니라 실제 정보를 받을 수 있습니다. 마지막으로 비디오는 특정 객체를 감지하고 모델 출력을 제어하는 기능을 추가하는 방법을 보여줍니다.

  • 00:15:00 비디오의 이 섹션에서 발표자는 물체 감지 모듈을 사용자 정의하여 특정 물체를 감지하는 방법을 설명합니다. 사용자는 개체 목록에 기록하여 탐지할 개체 목록을 만들 수 있습니다. 사용자가 목록을 비워두면 훈련된 모든 클래스를 감지합니다. 발표자는 개체 목록에 "컵"을 추가하여 컵만 감지하는 방법의 예를 보여줍니다. 여러 개체를 목록에 추가할 수 있으며 프로그램은 해당 개체만 감지합니다. 프리젠터는 또한 메인 모듈을 사용하여 다른 모듈에서 객체 감지 모듈을 실행하는 방법을 제공합니다.

  • 00:20:00 비디오의 이 섹션에서 발표자는 임계값 및 NMS(Non-Maximum Suppression)와 같은 매개변수를 추가하여 물체 감지를 위한 코드를 수정하는 방법을 설명합니다. NMS 매개변수는 이미지에서 중복 감지를 제거하는 데 도움이 됩니다. 발표자는 이러한 매개변수를 코드에 추가하는 방법을 보여주고 해당 값을 변경하는 효과를 보여줍니다. 영상 뒷부분에서 발표자는 Raspberry Pi에서 코드를 실행하려면 OpenCV 버전 4.3 이상이 필요하다고 설명합니다. 사용자가 이전에 이 버전을 설치하지 않은 경우 웹 사이트에서 발표자의 지침을 따를 수 있습니다.

  • 00:25:00 이 섹션에서는 강사가 OpenCV 및 Python을 사용하여 Raspberry Pi에서 개체 감지를 설정하는 방법을 시연합니다. 여기에는 여러 파일을 최신 버전으로 교체하고, cv2를 가져오고, 버전 번호를 확인하는 작업이 포함됩니다. 강사는 또한 개체 감지에 필요한 파일을 제공하고 올바르게 작동하도록 파일 경로를 편집하는 방법을 보여줍니다. 또한 강사는 외부 카메라를 사용하여 물체 감지의 예를 보여주고 처리하는 데 시간이 걸릴 수 있음을 설명합니다. 코드가 성공적으로 실행되고 모델이 병, 컵 및 리모컨과 같은 객체를 감지할 수 있습니다.

  • 00:30:00 이 섹션에서 발표자는 Raspberry Pi에서 OpenCV 및 Python을 사용하여 특정 객체를 감지하는 기능을 시연합니다. 레이블을 "원격"에서 "컵"으로 변경한 다음 "병"으로 변경하여 감지를 테스트하고 감지를 다시 실행합니다. 감지는 라즈베리 파이에서 잘 작동하는 것 같지만 느립니다. 발표자는 Jetson Nano가 얼마나 더 잘 수행되는지 확인하기 위해 다음 비디오에서 동일한 감지를 시도할 것이라고 언급합니다. 또한 시청자가 자신의 웹사이트를 방문하여 파일과 코드를 무료로 다운로드하고 채널을 구독하도록 초대합니다.
Object Detection Raspberry Pi using OpenCV Python
Object Detection Raspberry Pi using OpenCV Python
  • 2020.09.05
  • www.youtube.com
In this video, we will look at how to run object detection on Raspberry Pi using OpenCV and python. We will create a modular function that will allow us to s...
 

Raspberry pi 4 및 3의 소스에서 OpenCV Python 설치 및 빌드



Raspberry pi 4 및 3의 소스에서 OpenCV Python 설치 및 빌드

YouTube 비디오는 Raspberry Pi에 Python용 OpenCV를 설치하는 두 가지 방법을 설명합니다. 첫 번째 방법은 미리 빌드된 바이너리를 설치하기 위한 단일 터미널 명령을 포함하고 두 번째 방법은 소스에서 OpenCV를 빌드해야 합니다. Github 리포지토리에서 소스를 다운로드한 후 Raspberry Pi의 소스에서 OpenCV를 빌드하는 마지막 단계에는 "sudo make install" 명령을 입력하기 전에 cmake 및 make 명령을 실행하는 작업이 포함되며 완료하는 데 몇 시간이 걸릴 수 있습니다. 비디오는 Python 명령을 사용하여 성공적인 설치를 확인하는 방법을 보여줍니다. 동영상은 댓글 섹션에서 좋아요, 구독 및 질문을 격려하는 것으로 끝납니다.

  • 00:00:00 영상의 이 섹션에서는 발표자가 Raspberry Pi에 Python용 OpenCV를 설치하는 두 가지 방법을 설명합니다. 첫 번째 방법은 단일 터미널 명령으로 미리 빌드된 바이너리를 설치하는 것입니다. 이 방법은 간단하지만 OpenCV의 최신 버전을 보장하지 않을 수 있습니다. 두 번째 방법은 소스에서 OpenCV를 빌드하는 것입니다. 먼저 몇 가지 종속성을 설치하고 Github 저장소에서 소스를 다운로드하고 소스를 빌드하기 위한 명령을 만들고 실행해야 합니다. 두 방법 모두 비디오에서 단계별로 표시됩니다.

  • 00:05:00 이 섹션에서는 비디오에서 Raspberry Pi 4 또는 3의 소스에서 OpenCV Python을 설치 및 빌드하는 마지막 단계에 대해 설명합니다. cmake 명령을 실행한 다음 완료하는 데 몇 시간이 걸릴 수 있는 make 명령을 실행한 후, 마지막 단계는 "sudo make install"을 입력하는 것입니다. 설치가 성공적이었는지 확인하기 위해 비디오는 "python3" 명령을 입력한 다음 "import cv2 as cv"와 print 문을 입력하는 방법을 보여줍니다. 터미널이 OpenCV 버전과 함께 메시지를 반환하면 설치가 성공한 것입니다. 동영상은 시청자가 채널을 좋아하고 구독하고 댓글 섹션에 질문을 하도록 권장합니다.
Install and build OpenCV python From Source on Raspberry pi 4 and 3
Install and build OpenCV python From Source on Raspberry pi 4 and 3
  • 2021.04.04
  • www.youtube.com
In this video you will learn how to install opencv for python in raspberry pi with two different methods, so if you start using raspberry pi and want to use ...
 

전화기의 신경망: ONNX를 통한 교육에서 배포까지



전화기의 신경망: ONNX를 통한 교육에서 배포까지

"휴대폰의 신경망: ONNX를 통한 교육에서 배포까지"에 대한 이 비디오에서 발표자는 iNaturalist 커뮤니티 API를 사용하여 신경망을 교육하여 독성이 있는지 또는 식용인지에 따라 다양한 버섯 종을 식별하는 방법을 시연합니다. 그런 다음 Apple의 Core ML 패키지를 사용하여 iPhone에 모델을 배포하는 방법을 설명합니다. 발표자는 훈련된 모델을 Core ML로 가져오기 전에 ONNX 파일 형식으로 포맷하는 것의 중요성도 지적합니다. 발표자는 EfficientNet이 이미지 분류를 위한 미래 모델이 될 것이며 모델 선택에 주의가 필요함을 강조하고 식물, 동물 또는 조류에 대한 분류기를 구축할 것을 제안합니다.

  • 00:00:00 이 섹션에서 발표자는 iNaturalist 커뮤니티의 API를 사용하여 버섯 이미지 분류기를 훈련하여 모든 종류의 버섯 종에 대한 수백 가지 이미지를 얻는 방법을 설명합니다. 그들은 Mathematica를 사용하여 이미지를 저장하고 해당 지역에서 흔히 볼 수 있는 11종의 독성 버섯과 11종의 식용 버섯 종을 기준으로 독성이 있는지 식용인지에 따라 분류했습니다. 나중에 신경망을 훈련하기 전에 이미지를 자르고 크기를 조정했습니다. 발표자는 Fly Agarik과 동일한 방법을 통해 효과적으로 분류된 치명적인 버섯인 Death Cap을 모두 사용하여 시연합니다.

  • 00:05:00 이 섹션에서 발표자는 네트워크 저장소에서 미리 훈련된 네트워크 모델을 사용하여 다양한 버섯 종을 식별하기 위해 신경망을 훈련시키는 과정에 대해 논의합니다. 그들은 클래스 레이블과 훈련 및 테스트 세트를 생성한 방법과 전이 학습을 사용하여 확률적 경사 하강법으로 모델을 훈련시킨 방법을 설명합니다. 그들은 또한 훈련된 모델을 ONNX 파일 형식으로 내보내는 것의 중요성에 대해 언급합니다. ONNX 파일 형식은 몇 년 전에 기계 학습 분야의 업계 리더가 만든 개방형 신경망 교환 형식입니다.

  • 00:10:00 이 섹션에서 발표자는 Apple의 Core ML 패키지를 사용하여 iOS 운영 체제 장치에 신경망을 배포하는 방법을 설명합니다. 모델을 Core ML 형식으로 변환하기 위해 발표자는 CoreML 도구를 사용하여 ONNX를 포함한 다양한 유형의 넷 모델을 가져오는 방법과 예제로 사용된 버섯 데이터 세트에 대한 전처리 인수 및 클래스 레이블을 지정하는 방법을 보여줍니다. 발표자는 또한 Core ML 모델이 인코더와 디코더를 사용하여 자연어 모델과 유사한 방식으로 작동하며 픽셀 값과 색상 바이어스 측면에서 두 형식 간의 몇 가지 차이점을 강조합니다.

  • 00:15:00 이 섹션에서는 발표자가 Core ML 모델을 iPhone에 배포하는 단계를 설명합니다. 이들은 Xcode 프로젝트의 기존 MobileNet 모델을 자체 버섯 종 모델로 교체하는 방법을 시연합니다. 화자는 숲에서 발견한 다양한 버섯에 모델을 테스트하여 모델이 올바르게 작동함을 보여줍니다. 청중이 Jupyter 노트북에서 자세한 내용을 확인하도록 권장합니다.

  • 00:20:00 이 섹션에서 연사는 이미지 분류를 위한 최고의 성능 모델이 EfficientNet이며 향후 제공될 것이라고 언급합니다. 그러나 사용자는 메모리가 너무 무거운 EfficientNet 모델을 선택하지 않도록 주의해야 합니다. 연사는 일부 유형의 버섯이 치명적일 수 있으므로 전문가의 자문 없이 요리에 분류기를 사용하는 것에 대해 경고합니다. 앞으로 발표자는 프레젠테이션을 위한 워크플로를 만들고 해당 주제에 대한 블로그 게시물을 제공할 계획입니다. 그들은 또한 새 노래 식별과 같은 오디오에 대한 예를 포함할 계획입니다. 발표자는 이러한 애플리케이션과 주제에 대한 스터디 그룹을 시작할 것을 제안하고 ONNX 포인트는 Android의 용도에 달려 있음을 강조합니다.

  • 00:25:00 이 섹션에서 발표자는 동물이나 식물에 대한 분류기를 구축하는 데 사용할 수 있는 gpif 검색 가져오기, gpif 가져오기 및 글로벌 데이터와 같은 종 관찰 및 기타 유용한 기능을 가져오기 위한 다양한 옵션에 대해 논의합니다. 발표자는 또한 청중의 관심에 감사하고 커뮤니티의 기계 학습 그룹에서 더 많은 질문을 하도록 초대합니다.
Neural Net in your Phone: From Training to Deployment through ONNX
Neural Net in your Phone: From Training to Deployment through ONNX
  • 2020.12.10
  • www.youtube.com
Current smartphones are powerful enough to run neural networks locally without the need of a cloud server connection. But deploying and running a custom neur...
 

MCU의 ONNX



MCU의 ONNX

Rohit Sharma가 마이크로컨트롤러에서 ONNX 모델을 실행할 때의 문제와 기회에 대해 이야기합니다. 이러한 장치에는 고성능 서버의 리소스가 부족하지만 하드웨어 리소스의 개선과 모델 크기를 줄이려는 AI 커뮤니티의 노력으로 인해 작은 장치에 대한 기계 학습 응용 프로그램이 증가하고 있다고 강조합니다. Sharma는 마이크로컨트롤러에서 기계 학습을 쉽게 구현하기 위한 두 가지 도구에 대해 설명합니다. Python을 지원하고 개발자가 맞춤형 ML 알고리즘을 생성할 수 있는 오픈 소스 사전 컴파일러인 DeepSea와 사용자의 데이터 세트에 맞게 사용자 정의할 수 있는 70개 이상의 소형 ML 애플리케이션. 그는 수화 제스처를 단어로 변환하는 웨어러블 장갑과 Amazon Echo와 같은 음성 지원 장치에 대한 약한 단어 감지를 포함하여 이러한 도구에 대한 두 가지 사용 사례를 제공합니다.

  • 00:00:00 이 섹션에서 Rohit Sharma는 몇 달 동안 배터리로 작동하는 소형 장치인 마이크로컨트롤러에서 ONNX 모델을 실행할 때의 문제와 기회에 대해 설명합니다. 이러한 장치에는 가속기 또는 단일 보드 컴퓨터가 있는 고성능 서버의 컴퓨팅 리소스가 없지만 소형 장치에서 실행되는 기계 학습 응용 프로그램의 수가 증가하는 것은 MCU 공급자가 하드웨어 리소스를 지속적으로 개선하고 AI 연구 커뮤니티가 모델 크기를 줄이기 위해 노력하고 있습니다. Sharma는 모든 작은 ML 앱이 에지 AI 앱이지만 모든 에지 AI 앱이 작은 ML 앱은 아니라고 설명합니다. 그 차이는 전력 소비에 뿌리를 두고 있기 때문입니다. 그런 다음 마이크로컨트롤러, IoT 및 에지 장치를 비롯한 소형 폼 팩터 장치용으로 설계된 오픈 소스, 벤더 독립적 딥 러닝 라이브러리 컴파일러 및 추론 프레임워크인 DeepSea로 ONNX 모델을 컴파일하는 프로세스에 대해 논의합니다.

  • 00:05:00 이 섹션에서 발표자는 마이크로컨트롤러에서 기계 학습을 쉽게 구현하기 위한 두 가지 도구를 설명합니다. 첫 번째 도구는 Python을 지원하고 개발자가 맞춤형 기계 학습 알고리즘을 만들 수 있도록 하는 오픈 소스 AOT(ahead-of-time) 컴파일러인 DeepSea입니다. 두 번째 도구는 70개가 넘는 작은 기계 학습 애플리케이션의 갤러리를 제공하는 노코드/로우코드 플랫폼인 Canvas입니다. 캔버스를 사용하면 이러한 애플리케이션을 사용자 지정하여 사용자의 데이터 세트에 적합한 작은 기계 학습 모델을 만들 수 있습니다. 발표자는 또한 이러한 도구에 대한 두 가지 사용 사례, 즉 수화 제스처를 구어로 변환하는 착용 가능한 장갑과 Amazon Echo와 같은 음성 지원 장치를 활성화하기 위한 약한 단어 감지를 제공했습니다.
ONNX on MCUs
ONNX on MCUs
  • 2021.03.18
  • www.youtube.com
Bring your ONNX models on MCUs with http://cainvas.ai-tech.systems/​cAInvas boasts support for ML models derived from all popular platform like TensorFlow, k...
 

ONNX로 기계 학습 기능 활용 - Ron Dagdag



ONNX로 기계 학습 기능 활용 - Ron Dagdag

이 비디오에서 Ron Dagdag는 기계 학습 프레임워크, 특히 딥 러닝 프레임워크와 배포 간의 상호 운용성을 촉진하는 ONNX의 중요성에 대해 자세히 설명합니다. 그는 기존 모델 변환, Azure의 자동화된 기계 학습으로 모델 교육, Azure의 사용자 지정 비전 서비스 사용을 포함하여 ONNX 모델을 얻는 방법을 설명합니다. Dagdag는 머신 러닝 모델을 클라우드에 배포할지 엣지에 배포할지 결정을 강조하고 ONNX를 활용하여 프로세스를 보다 원활하게 만들 것을 제안합니다. 또한 그는 Microsoft의 ML.NET을 사용하여 기계 학습 모델을 만드는 과정을 살펴보고 추론을 위해 ONNX 런타임을 사용하여 ONNX 모델을 애플리케이션에 통합하는 방법을 시연합니다. Dagdag는 또한 기계 학습, 다양한 플랫폼 및 언어, 모델 크기를 더 작게 만드는 도구를 위한 개방형 표준으로서 ONNX를 탐색합니다.

  • 00:00:00 이 섹션에서 발표자는 기존 프로그래밍이 입력 및 계산에 중점을 두는 반면 머신 러닝은 컴퓨터가 알고리즘을 학습하도록 교육하는 데 중점을 두기 때문에 기존 프로그래밍이 머신 러닝과 어떻게 다른지 논의합니다. 교육 데이터는 기계 학습에서 중요하며 이 데이터는 프로세스의 일부로 알고리즘을 학습하도록 기계를 교육하는 데 사용됩니다. 연사는 머신 러닝 프레임워크와 배포 사이의 다리 역할을 하는 ONNX(Open Neural Network Exchange)와 같은 머신 러닝 프레임워크의 중요성을 강조합니다. ONNX는 딥 러닝 프레임워크 간에 모델을 이동하여 프레임워크 간의 상호 운용성을 보장합니다.

  • 00:05:00 이 섹션에서 Ron Dagdag는 ONNX 모델을 얻는 다양한 방법에 대해 설명합니다. 셰프와 유사한 데이터 과학자는 회사의 모델을 개선하기 위해 레시피를 생성하고 개선하는 일을 담당하는 반면, ONNX 모델은 운영 그래프의 신경망 표현을 위한 PDF와 같습니다. ONNX 모델을 획득하는 네 가지 방법에는 Azure 사용자 지정 비전 서비스인 GitHub를 통해 기존 모델을 변환하고 Azure의 자동화된 기계 학습을 사용하여 교육하는 방법이 있습니다. 모델을 ONNX로 변환하는 프로세스는 TensorFlow, Keras 또는 PyTorch에서 ONNX로 모델을 변경하는 데 사용할 수 있는 변환기가 있으므로 기존 모델 로드, 변환 수행 및 저장을 포함한 중요한 단계가 있으므로 간단합니다. 전반적으로 ONNX는 회사가 머신 러닝을 애플리케이션에 보다 원활하게 통합하도록 도울 수 있습니다.

  • 00:10:00 이 섹션에서는 연사가 기계 학습 모델에 ONNX를 사용하는 방법에 대해 설명합니다. ONNX를 사용하면 개발자가 모델을 시각화할 때 모델의 입력 및 출력 데이터가 무엇인지 식별할 수 있습니다. 명령줄 변환을 통해 사용할 수 있으며 클라우드의 GPU 클러스터로 빠르게 확장할 수 있습니다. ONNX는 모델 버전 관리 및 배포 지원에 도움이 되는 모델 레지스트리도 제공합니다. 연사는 데이터 과학자와 소프트웨어 엔지니어의 차이점을 강조합니다. 전자는 비밀 레시피를 생성하고 후자는 다양한 소스와 통합하고 데이터를 소싱하고 파이프라인을 생성하여 이를 운영하는 방법을 알아냅니다. ONNX는 Windows 장치 및 IoT 끝점을 비롯한 다양한 장치에 배포할 수 있습니다.

  • 00:15:00 이 섹션에서 발표자는 기계 학습 모델을 클라우드에 배포할지 또는 사용자에게 더 가까운 처리를 의미하는 엣지에 배포할지에 대한 결정에 대해 논의합니다. 그는 에지에 배포하는 것이 더 비용 효율적이고 유연하며 대기 시간이 짧아 비디오나 이미지를 처리할 때 이상적이라고 설명합니다. 또한 데이터가 특정 네트워크나 국가를 벗어나지 않아야 한다는 규칙 및 규정이 있는 경우 에지에 배포해야 할 수 있습니다. 발표자는 다양한 기계 학습 프레임워크의 모델을 변환할 수 있는 중간 형식인 ONNX를 사용하여 배포 프로세스를 보다 원활하게 만들 것을 제안합니다.

  • 00:20:00 이 섹션에서는 발표자가 ONNX 프레임워크와 잠재적인 응용 프로그램에 대해 설명합니다. ONNX를 사용하면 TensorFlow, Core ML 및 전이 학습을 비롯한 다양한 형식으로 모델을 변환할 수 있으며 ONNX Runtime이라는 모델 실행을 위한 고성능 런타임이 있습니다. ONNX Runtime은 플랫폼 간이며 기존 기계 학습 작업을 지원합니다. 또한 GPU 버전과 C# API도 있습니다. 전반적으로 ONNX는 개발자를 위한 강력한 도구이며 사용자는 docker 컨테이너 인스턴스를 사용하여 ONNX 에코시스템을 통해 시작할 수 있습니다. 그의 데모에서 발표자는 데이터 프레임을 사용하여 데이터를 조작하기 위해 C#에서 다양한 ONNX 패키지를 다운로드하고 사용하는 방법을 보여줍니다.

  • 00:25:00 이 섹션에서 발표자는 Microsoft의 ML.NET을 사용하여 수년간의 경험을 기반으로 급여를 예측하는 간단한 기계 학습 모델을 만드는 과정을 보여줍니다. 그는 먼저 데이터를 교육 및 테스트 세트로 분할하고 ML 컨텍스트를 사용하여 파이프라인을 만들고 교육 세트를 사용하여 모델을 교육합니다. 그런 다음 모델의 메트릭을 평가하고 ONNX 모델에 저장합니다. 그런 다음 추론을 위해 ONNX 런타임을 사용하여 ONNX 모델을 애플리케이션에 통합하는 방법을 보여줍니다. 마지막으로 애플리케이션용 입력 컨테이너를 만들고 모델을 실행하여 점수를 얻습니다.

  • 00:30:00 이 섹션에서 발표자는 ONNX 런타임 사용의 이점, 과거에 이를 사용한 다양한 Microsoft 팀 및 프로세스 개선 방법에 대해 설명합니다. 그는 또한 win32 및 WinRT 애플리케이션의 Windows 제품군 장치에서 사용할 수 있는 Windows 장치에 배포하고 API를 사용하여 ONNX 런타임에 연결하는 경우 Windows ML을 사용하는 방법에 대해서도 설명합니다. 그런 다음 발표자는 실시간 고도 제어 기계 학습 API를 만드는 데 이상적이며 게임에 가장 적합한 Direct ML을 탐색합니다. 그는 또한 브라우저 또는 nodejs에서 ONNX 모델을 실행하기 위한 ONNX JS와 전체 운영 체제 또는 Linux Mac이 없는 장치를 사용할 수 있게 해주는 Embedded Learning Library를 강조합니다.

  • 00:35:00 이 섹션에서 Ron Dagdag는 기계 학습을 위한 개방형 표준으로 ONNX를 사용하는 방법과 이를 다른 플랫폼으로 효율적으로 변환하는 방법에 대해 설명합니다. ONNX 모델은 dotnet, JavaScript 및 Python과 같은 여러 언어로 만들 수 있습니다. 클라우드 또는 에지에 배포를 통해 성능을 달성할 수 있습니다. 청중은 ONNX 모델을 C#으로 가져올 수 있는지, ONNX 런타임의 메모리 공간은 무엇인지, 큰 이미지 모델을 더 작은 디바이스에 적합한 더 작은 ONNX 모델로 어떻게 변환할 수 있는지와 같은 질문을 했습니다. Dagdag는 가지치기 또는 양자화를 사용하여 모델을 압축하고 크기를 줄일 것을 제안했습니다. 그는 또한 코드를 시험해 볼 수 있는 바인더와 함께 GitHub 리포지토리에서 슬라이드와 데모 코드를 사용할 수 있다고 강조했습니다.

  • 00:40:00 이 섹션에서 발표자는 크기 측면에서 ONNX 모델을 더 작게 만드는 프로세스에 대해 설명합니다. ONNX 모델은 수행할 수 있는 작업을 식별하는 작업 그래프로 구성됩니다. ONNX 모델을 작게 만드는 특정 방법이 없을 수 있지만 압축할 수 있는 유틸리티가 있습니다. 오픈 소스 소프트웨어이기 때문에 향후 새로운 기능이 출시될 가능성이 있습니다. 시청자는 채팅 또는 Q&A 웹사이트를 통해 Ron에게 추가 질문을 제출하는 것이 좋습니다.
Leverage the power of Machine Learning with ONNX - Ron Dagdag
Leverage the power of Machine Learning with ONNX - Ron Dagdag
  • 2020.04.07
  • www.youtube.com
Have you ever wanted to make your apps “smarter”? This session will cover what every ML/AI developer should know about Open Neural Network Exchange (ONNX) . ...
사유: