Aprendendo ONNX para negociação - página 10

 

Como executar o TensorFlow Lite no Raspberry Pi para detecção de objetos



Como executar o TensorFlow Lite no Raspberry Pi para detecção de objetos

O tutorial explica como configurar o TensorFlow Lite em um Raspberry Pi para detecção de objetos. Isso envolve atualizar o Pi, habilitar a interface da câmera, baixar o repositório do GitHub, criar um ambiente virtual, instalar o TensorFlow e o OpenCV e executar um shell script para instalar todos os pacotes e dependências necessários. Os usuários podem baixar um modelo de amostra fornecido pelo Google ou treinar seu próprio modelo personalizado. Depois que o modelo estiver pronto, os usuários podem executar um código no Python 3 para ver seu script de detecção de webcam em tempo real, detecção em vídeos e imagens. A velocidade aprimorada do TensorFlow Lite o torna útil para aplicações de detecção em tempo real, como câmeras inteligentes ou sistemas de alarme. O criador também menciona seu próprio projeto de detector de animais de estimação e incentiva os espectadores a ficarem atentos ao próximo vídeo sobre como configurar o acelerador Coral USB.

  • 00:00:00 Nesta seção, o tutorial em vídeo fornece um guia passo a passo sobre como configurar o TensorFlow Lite em um Raspberry Pi para detecção de objetos. O TensorFlow Lite é um modelo leve de aprendizado de máquina otimizado para ser executado em dispositivos de baixa potência como o Pi, com tempos de inferência mais rápidos e menos poder de processamento necessário. O tutorial aborda a atualização do Pi, habilitação da interface da câmera, download do repositório GitHub, criação de um ambiente virtual, instalação do TensorFlow e OpenCV e execução de um shell script para instalar todos os pacotes e dependências necessários. O vídeo também inclui dicas para lidar com erros e obter ajuda, e o guia do GitHub inclui uma lista de erros e soluções comuns.

  • 00:05:00 Nesta seção, o palestrante explica como configurar o modelo de detecção do TensorFlow Lite. Os usuários podem baixar um modelo de amostra fornecido pelo Google ou treinar seu próprio modelo personalizado. O modelo de amostra do Google é um modelo de rede móvel SSD quantizado treinado no conjunto de dados MS cacau, permitindo detectar 80 objetos comuns com queda mínima de precisão. Para baixar o modelo de amostra, os usuários podem clicar com o botão direito do mouse no link
    na descrição e execute-o no terminal usando "W git" para download e "unzip" para extração. Além disso, o palestrante fornece um guia escrito no GitHub para usuários que desejam treinar um modelo de detecção e convertê-lo em TensorFlow Lite. Depois que o modelo estiver pronto, os usuários podem executar um código no Python 3 para ver seu script de detecção de webcam em tempo real, detecção em vídeos e imagens. O palestrante também mencionou que explicará como obter um grande aumento na velocidade de detecção usando o acelerador USB coral do Google em seu próximo vídeo.

  • 00:10:00 Nesta seção, o criador do vídeo menciona que a velocidade aprimorada do TensorFlow Lite o torna útil para aplicativos de detecção em tempo real, como câmeras inteligentes ou sistemas de alarme. Eles também mencionam seu próprio projeto, um vídeo de detector de animais de estimação em que usaram a detecção de objetos para alertá-los se o gato quiser sair, e dizem que publicarão mais projetos de visão computacional do TensorFlow. Eles terminam agradecendo aos espectadores por assistir e os incentivam a ficar atentos ao próximo vídeo sobre como configurar o acelerador Coral USB.
 

Tutorial de Detecção de Objeto Raspberry Pi



Tutorial de Detecção de Objeto Raspberry Pi

Neste tutorial de detecção de objetos Raspberry Pi, o apresentador mostra como instalar o Tensorflow Lite em um Raspberry Pi e usá-lo para classificação de imagens com demonstração de classificação em tempo real incluída. Eles também explicam o que é lib atlas, um componente crucial do aprendizado de máquina para álgebra linear e como corrigir erros relacionados em um Raspberry Pi. O apresentador observa que um acelerador Coral USB pode ser usado para aumentar a velocidade do projeto, mas não é obrigatório. No geral, o apresentador enfatiza a flexibilidade do script para atender a diferentes casos de uso ou modelos.

  • 00:00:00 Nesta seção do vídeo, o apresentador fornece um tutorial para instalar o Tensorflow Lite em um Raspberry Pi e usá-lo para classificação de imagens. O apresentador usa a biblioteca de exemplos do Tensorflow e observa que um acelerador Coral USB pode ser usado para aumentar a velocidade do projeto, embora não seja obrigatório. Para começar, o apresentador atualiza o Raspberry Pi e cria um ambiente virtual. O apresentador demonstra como ativar o ambiente e instalar os pacotes necessários antes de instalar o runtime do Tensorflow Lite. Por fim, o apresentador verifica a versão para garantir que tudo esteja instalado corretamente.

  • 00:05:00 Nesta seção, o palestrante executa um exemplo de detecção de objeto em um Raspberry Pi, mas encontra um erro relacionado ao lib atlas. Eles explicam que o lib atlas é crucial para a álgebra linear, que é um componente importante do aprendizado de máquina. Eles mostram como corrigiram o problema executando sudo apt-get install lib atlas bass dash dev. O palestrante demonstra a classificação em tempo real usando o Raspberry Pi e enfatiza que o script pode ser modificado para atender a diferentes casos de uso ou modelos.
 

Detecção de objetos OpenCV Python | Fácil e rápido (2020)



Detecção de objetos OpenCV Python | Fácil e rápido (2020)

Neste tutorial em vídeo intitulado "Object Detection OpenCV Python | Easy and Fast (2020)", o apresentador demonstra como criar um detector de objetos usando a biblioteca OpenCV em Python. O vídeo se concentra na criação de um detector com um equilíbrio entre precisão e velocidade que pode detectar vários objetos comumente encontrados em tempo real. O modelo MobileNet SSD é usado para detecção de objetos devido à sua velocidade e precisão, e o conjunto de dados coco é usado para detectar classes como pessoa, bicicleta e carro. O vídeo mostra como percorrer várias variáveis usando a função zip para criar um retângulo ao redor do objeto detectado e como modificar o código para executar a detecção de objeto em um feed de webcam. O apresentador também explica como ajustar o valor limite e adicionar valores de confiança aos objetos detectados para entender a probabilidade de cada objeto.

  • 00:00:00 Nesta seção do vídeo, o criador discute como criar um detector de objetos com um bom equilíbrio entre precisão e velocidade. O detector pode ser executado em tempo real enquanto detecta vários objetos comuns e não requer nenhuma biblioteca de terceiros para ser executado além do OpenCV. O vídeo mostra os códigos de criação de um detector de objetos e explica em detalhes o uso do MobileNet SSD, que tem um bom equilíbrio entre precisão e velocidade, e pode rodar em uma CPU quase em tempo real, tornando-o uma excelente opção para detecção de objetos comuns. Por fim, opencv-python é a única biblioteca necessária para executar o detector, e o conjunto de dados coco é usado para detectar classes como pessoa, bicicleta e carro.

  • 00:05:00 Nesta seção do tutorial em vídeo, o apresentador demonstra como exibir uma imagem usando a biblioteca OpenCV em Python. Eles importam nomes de objetos do conjunto de dados coco usando a função with open e os lêem como uma matriz. Eles então importam arquivos de configuração e pesos e usam a função OpenCV para criar o modelo. Ao contrário do vídeo tutorial do YOLO, onde técnicas tiveram que ser aplicadas para extrair a caixa delimitadora, a função faz todo o processamento para nós, e tudo o que precisamos fazer é passar a imagem, e ela exibirá a caixa delimitadora e os nomes de ID.

  • 00:10:00 Nesta seção, o tutorial em vídeo explica como realizar a detecção de objetos usando OpenCV e Python. Depois de configurar o modelo de detecção, o código envia a imagem de entrada para o modelo e retorna os IDs de classe, níveis de confiança e caixas delimitadoras. O tutorial se concentra em colocar um detector de objetos em funcionamento da forma mais rápida e fácil possível, sem instalações ou formalidades extensas. O código pode ser utilizado para várias aplicações, como carros autônomos ou dispositivos robóticos. O tutorial também aborda a importância dos IDs de classe e o significado de subtrair um de seus valores ao se referir aos nomes de classe.

  • 00:15:00 Nesta seção, o instrutor explica como percorrer três diferentes variáveis ou informações usando a função zip. Eles usam zip para nivelar as variáveis de confiança e caixa delimitadora e, em seguida, usam um loop for para criar um retângulo ao redor do objeto detectado. Eles também gravam o nome do objeto detectado usando a função putText e usam a variável de nomes de classe para subtrair um do id de classe para obter o nome apropriado. O instrutor adiciona outros parâmetros para tornar o rótulo mais visível e até altera o texto para ficar todo em letras maiúsculas. Finalmente, eles detectam com sucesso uma pessoa na imagem.

  • 00:20:00 Nesta seção, o tutorial demonstra como modificar o código para executar a detecção de objetos em um feed de webcam em vez de imagens estáticas. O código usa "cv2.videoCapture" para inicializar a webcam e definir os parâmetros de tamanho da imagem. O loop while é usado para capturar e exibir constantemente o feed da webcam, e uma condição é adicionada para verificar se algum objeto foi detectado antes de exibi-lo. O sistema detecta com precisão objetos como teclado, monitor, telefone celular e mouse em tempo real usando o feed da webcam.

  • 00:25:00 Nesta seção, o autor explica que o algoritmo de detecção de objetos pode detectar objetos com boa velocidade e precisão, mesmo que não seja a melhor precisão. O vídeo continua mostrando como alterar o valor do limite e adicionar valores de confiança aos objetos detectados. O YouTuber então executa o programa e demonstra como os valores de confiança são exibidos para os objetos detectados, que são visíveis e claros o suficiente para entender a probabilidade de cada objeto.
 

Como configurar a detecção de objetos do TensorFlow no Raspberry Pi



Como configurar a detecção de objetos do TensorFlow no Raspberry Pi

Neste vídeo, o processo de configuração da API TensorFlow Object Detection em um Raspberry Pi é explicado passo a passo. Primeiro, os pacotes necessários são instalados, incluindo TensorFlow, OpenCV e protobuf. Em seguida, a estrutura do TensorFlow é configurada e os modelos SSD Lite são baixados do zoológico de modelos de detecção do TensorFlow. Um script Python para detecção de objetos é fornecido e os visualizadores aprendem como usá-lo com uma câmera Pi ou webcam USB. O vídeo também aborda tópicos mais avançados, como baixar e usar um modelo personalizado. O Raspberry Pi é recomendado para projetos criativos que exigem baixo custo e portabilidade, como uma aba digital para gatos que pode enviar uma mensagem quando detecta o gato residente do lado de fora.

  • 00:00:00 Nesta seção do vídeo, o narrador fornece um guia sobre como configurar a API TensorFlow Object Detection em um Raspberry Pi. As etapas incluem atualizar o Raspberry Pi, instalar TensorFlow, OpenCV e protobuf, configurar a estrutura de diretórios do TensorFlow e testar o detector de objetos. O narrador também recomenda a instalação de dependências adicionais, como numpy, pillow, scipy e matplotlib. Além disso, o vídeo fornece dicas úteis, como a instalação do codec libatlas e libAV para um processamento suave.

  • 00:05:00 Nesta seção, o palestrante fornece um guia passo a passo sobre como instalar a API TensorFlow Object Detection no Raspberry Pi. Eles começam instalando os pacotes necessários, incluindo lib xvid core dev, lib x264 dev e QT for dev tools, seguidos pelo OpenCV. O palestrante explica os desafios que acompanham a instalação do protobuf no Raspberry Pi e orienta o visualizador sobre como compilá-lo a partir do código-fonte, incluindo a obtenção dos pacotes necessários para compilar o proto bruh fun source e o download da página de lançamentos do protobuf. Por fim, o alto-falante fornece os comandos de caminho necessários e emite o comando para instalar a implementação Python dos buffers de protocolo.

  • 00:10:00 Nesta seção, o palestrante explica o processo de configuração do diretório TensorFlow no Raspberry Pi. Isso envolve a criação de um diretório para o TensorFlow e o download do repositório do TensorFlow no GitHub. A variável de ambiente Python path precisa ser modificada para apontar para alguns diretórios dentro do repositório TensorFlow, e isso é feito modificando o arquivo bash RC. O palestrante também explica como baixar o modelo SSD Lite do zoológico de modelos de detecção do TensorFlow e o uso do Pro Talk para compilar os arquivos de buffer de protocolo usados pela API de detecção de objetos. Por fim, é fornecido um script Python para detectar objetos em feeds ao vivo de uma câmera Pi ou webcam USB, cujo código está disponível no repositório GitHub do palestrante.

  • 00:15:00 Nesta seção, o palestrante orienta os espectadores sobre como usar o TensorFlow Object Detection no Raspberry Pi. Eles primeiro instruem os visualizadores a baixar e executar o script python para detecção de objetos, garantindo que a câmera PI esteja habilitada no menu de configuração. Eles também explicam que é recomendável fechar todos os outros aplicativos, principalmente o navegador da Web, pois o tensorflow usa muita memória. O palestrante também mostra como usar um modelo que o próprio usuário treinou e fornece um link do Dropbox para seu próprio modelo de detecção de cartas de baralho como exemplo. Os visualizadores são aconselhados a executar o script de detecção de objetos, que pode levar até um minuto para inicializar, e então detectar objetos comuns e exibi-los em uma janela com um retângulo. Por fim, o palestrante recomenda o Raspberry Pi para aplicações criativas que exigem baixo custo e portabilidade, como um cat flap digital que envia uma mensagem quando detecta o gato residente do lado de fora.
 

Reconhecimento facial com Raspberry Pi + OpenCV + Python



Reconhecimento facial com Raspberry Pi + OpenCV + Python

A Core Electronics mostra como criar um sistema de reconhecimento facial usando o OpenCV e o pacote de reconhecimento facial do Python em um Raspberry Pi. O tutorial inclui treinar o sistema usando um código Python chamado "train_model.py" e testá-lo por meio de um código de identificação chamado "facial_req.py". O sistema pode diferenciar rostos desconhecidos e conhecidos, e também pode girar o servo assim que o sistema reconhecer um rosto conhecido. O criador credita as equipes do OpenCV e do pacote de reconhecimento facial, juntamente com Carolyn Dunn, por tornar esse tipo de software possível e tem grandes esperanças em seu potencial em seus projetos futuros.

  • 00:00:00 Nesta seção, a Core Electronics demonstra como usar o pacote de reconhecimento facial OpenCV e Python em um Raspberry Pi para criar um sistema de reconhecimento facial. Primeiro, eles reúnem os materiais necessários, incluindo Raspberry Pi, câmera oficial, cartão Micro SD, cabo HDMI e fonte de alimentação. Depois de configurar o raspberry pi e instalar os pacotes, eles mostram como treinar o sistema de reconhecimento facial usando um código python chamado "train_model.py" e testá-lo usando um código de identificação chamado "facial_req.py". O programa permite que a câmera Raspberry Pi procure rostos ao vivo e os identifique corretamente assim que os localizar. O sistema também pode distinguir entre rostos desconhecidos e conhecidos, exibindo "desconhecido" ou o nome do sujeito, respectivamente.

  • 00:05:00 Nesta seção, o criador do vídeo explica como adicionar seis linhas de código ao script para controlar um servo usando pinos GPIO do Raspberry Pi, que podem girar apenas quando o sistema Raspberry Pi reconhece o rosto de seu dono. O sistema não ativará o servo se não reconhecer nenhum rosto ou um rosto desconhecido. O criador do vídeo esconde o rosto e mostra como o servo se move ao reconhecer seu rosto. Ele credita as equipes do OpenCV e do pacote de reconhecimento facial e Carolyn Dunn por criar o software que faz esses sistemas funcionarem tão bem juntos. O criador do vídeo acredita que este software tem um potencial imenso para levar projetos a lugares incríveis.
 

Como instalar o TensorFlow 2 e o OpenCV em um Raspberry Pi



Como instalar o TensorFlow 2 e o OpenCV em um Raspberry Pi

Este vídeo fornece um guia passo a passo sobre como instalar o TensorFlow 2 e o OpenCV em um Raspberry Pi. O apresentador enfatiza a importância de ter um Pi mais recente, especificamente um Pi 4 de 64 bits, e fornece instruções sobre como instalar o Raspberry Pi OS, atualizar e atualizar o sistema e selecionar o script shell TensorFlow apropriado para o sistema. O vídeo também explica como alterar a versão do Python para 3.7 para aqueles com problemas de instalação e fornece instruções detalhadas sobre a instalação de ambientes virtuais, pacotes de sistema, TensorFlow e OpenCV. Ao longo do vídeo, o apresentador fornece dicas úteis e soluções para possíveis erros. O vídeo conclui testando a instalação do OpenCV e do TensorFlow usando comandos de importação e incentiva os espectadores a deixar comentários ou solicitações.

  • 00:00:00 Nesta seção do vídeo, o apresentador explica como configurar um Raspberry Pi para uma instalação completa de TensorFlow e OpenCV, começando com a importância de ter um Pi mais recente, especificamente um Pi 4 que é de 64 bits. O vídeo aborda o processo de instalação do Raspberry Pi OS e a configuração de um nome de host, nome de usuário, senha e configurações de Wi-Fi usando o gerador de imagens Raspberry Pi. Depois de inicializar o Pi, o apresentador instrui os visualizadores a atualizar e atualizar antes de verificar a versão do Python e a saída "uname -m", que são importantes para selecionar o script de shell do TensorFlow apropriado para o sistema. O apresentador também direciona os espectadores para scripts de shell hospedados de forma privada e arquivos de roda que podem fazer o TensorFlow funcionar com o Raspberry Pi.

  • 00:05:00 Nesta seção do vídeo, o apresentador discute como alterar sua versão do Python para 3.7 para aqueles que estão tendo problemas para instalar o TensorFlow 2 e o OpenCV em um Raspberry Pi. Para fazer isso, os visualizadores precisam usar o pi m e instalar a versão necessária do Python. O apresentador demonstra como instalar o pi m, adicionar linhas ao arquivo dot bash rc, instalar pacotes do sistema e atualizar o pi m. O apresentador então explica como instalar o Python versão 3.7.12 e criar um diretório de projeto. Por fim, o apresentador mostra aos espectadores como o pi m funciona e verifica a versão do Python.

  • 00:10:00 Nesta seção, o palestrante explica como instalar o TensorFlow 2 e o OpenCV em um Raspberry Pi. O palestrante sugere o uso de Python3.9 ou Python3.7 com o comando shell de roda TensorFlow apropriado. Eles passam pela instalação de um pacote de ambiente virtual e pela criação de um ambiente para trabalhar. O palestrante explica como instalar os pacotes do sistema e o TensorFlow. Há um teste simples fornecido para determinar se a instalação foi bem-sucedida. O palestrante também discute um erro que os usuários podem encontrar e apresenta a solução para o problema.

  • 00:15:00 Nesta seção, o palestrante fornece instruções para instalar o OpenCV no Raspberry Pi. Para usuários do Raspberry Pi 3, ele recomenda seguir um método específico detalhado em um vídeo específico e, em seguida, executar um único comando: pip install opencv-python. Esse comando leva apenas de dez a vinte segundos para ser executado, e o palestrante recomenda não adicionar nenhum recurso opcional, a menos que você seja um usuário avançado. O vídeo termina testando a instalação do OpenCV e do TensorFlow usando comandos de importação, e o palestrante incentiva os espectadores a deixar comentários, solicitações ou feedback.
 

Identificação de objetos e reconhecimento de animais com Raspberry Pi + OpenCV + Python



Identificação de objetos e reconhecimento de animais com Raspberry Pi + OpenCV + Python

O vídeo mostra um projeto Raspberry Pi 4 que utiliza uma biblioteca treinada e uma câmera Pi para identificar uma extensa gama de 91 animais e objetos em tempo real com uma classificação de confiança. O apresentador fornece uma demonstração completa de como configurar o hardware, configurar o Raspberry Pi e instalar o software OpenCV para permitir operações de processamento de imagem e visão computacional em tempo real. Por meio do exemplo de um copo como alvo, os espectadores aprendem como modificar o código para enviar sinais por meio dos pinos GPIO do Raspberry Pi para executar ações específicas quando o OpenCV identifica o alvo. O apresentador destaca o potencial do software para projetos empolgantes e expressa gratidão às equipes OpenCV e CoCo.

  • 00:00:00 Nesta seção do vídeo, o apresentador apresenta o projeto de usar um Raspberry Pi 4 em combinação com uma biblioteca treinada e uma câmera Pi para identificar 91 objetos e animais únicos em tempo real, com uma classificação de confiança atualizada . O software Opencv é utilizado para fornecer recursos para ajudar a resolver problemas de visão computacional e processamento de imagem em tempo real. O apresentador percorre as etapas necessárias para configurar o hardware, configurar o Raspberry Pi e instalar o software. O visualizador é então mostrado como executar o código e como mexer com vários dos valores do código para refinar o processo de identificação de objetos e animais.

  • 00:05:00 Nesta seção, o apresentador demonstra como modificar o código para enviar sinais através dos pinos GPIO de um Raspberry Pi sempre que um determinado alvo, neste caso um copo, é visto pelo software OpenCV. O código modificado comanda o Raspberry Pi para girar sempre que o copo for detectado. O potencial deste software para realizar projetos incríveis é destacado, juntamente com um agradecimento às equipes OpenCV e CoCo por seu trabalho neste software.
 

Detecção de objetos Raspberry Pi usando OpenCV Python



Detecção de objetos Raspberry Pi usando OpenCV Python

O vídeo do YouTube "Object Detection Raspberry Pi using OpenCV Python" demonstra como acessar e modificar um código para detecção de objetos, especificamente o MobileNet SSD. O tutorial enfatiza a codificação modular e fornece dicas para usar o código em diferentes plataformas, incluindo Raspberry Pi. O vídeo mostra como transformar o código em um módulo e criar uma função que detecta objetos específicos e controla o que o modelo gera. O apresentador também demonstra como modificar o código para detecção de objetos adicionando parâmetros como valor limite e supressão não máxima. O vídeo fornece os arquivos e instruções necessários para configurar a detecção de objetos em um Raspberry Pi e oferece uma demonstração da detecção de objetos específicos. O apresentador convida os espectadores a visitar seu site para obter informações sobre download e assinatura.

  • 00:00:00 O vídeo mostra como acessar o código do projeto de detecção de objetos e criar uma função que permite aos usuários obter informações sobre objetos específicos. O código usado é de um vídeo anterior que detecta diferentes objetos usando o MobileNet SSD. O tutorial também enfatiza a escrita de código modular para facilitar a remoção e adição de código. Além de explicar o código, o tutor também dá dicas úteis sobre como escrever e usar o código em diferentes plataformas, incluindo o Raspberry Pi.

  • 00:05:00 Nesta seção, o palestrante descreve como transformar o código que foi escrito anteriormente em um módulo que pode ser acessado por outros scripts. O palestrante demonstra criando uma função chamada "get_objects" que recebe uma imagem como entrada e retorna uma imagem com retângulos e rótulos de detecção de objetos como saída. O palestrante também mostra como usar o parâmetro "nms" para remover detecções de objetos sobrepostos. No final da seção, o palestrante criou uma função modular que pode ser usada para detectar objetos em uma imagem com OpenCV e Python.

  • 00:10:00 Nesta seção, o vídeo demonstra como adicionar funcionalidade para controlar a exibição das caixas delimitadoras e nomes de classe para aumentar ou diminuir a taxa de quadros. O vídeo explica que um valor booleano pode ser definido para determinar se as caixas delimitadoras devem ser desenhadas e, em seguida, mostra como implementar isso no loop for. O vídeo também adiciona o recurso para enviar informações sobre a caixa delimitadora e o nome da classe, permitindo que você receba as informações reais em vez de apenas exibi-las. Por fim, o vídeo mostra como adicionar funcionalidade para detectar objetos específicos e controlar o que o modelo gera.

  • 00:15:00 Nesta seção do vídeo, o apresentador explica como personalizar o módulo de detecção de objetos para detectar objetos específicos. O usuário pode criar uma lista de objetos a serem detectados anotando-os na lista de objetos. Se o usuário deixar a lista vazia, ele detectará todas as classes nas quais foi treinado. O apresentador mostra um exemplo de como detectar apenas xícaras adicionando "xícara" à lista de objetos. Vários objetos podem ser adicionados à lista e o programa detectará apenas esses objetos. O apresentador também fornece uma maneira de executar o módulo de detecção de objetos de outro módulo usando o módulo principal.

  • 00:20:00 Nesta seção do vídeo, o apresentador explica como modificar o código para detecção de objetos adicionando parâmetros como valor limite e supressão não máxima (NMS). O parâmetro NMS ajuda a remover detecções duplicadas na imagem. O apresentador mostra como adicionar esses parâmetros ao código e demonstra os efeitos da alteração de seus valores. Mais adiante no vídeo, o apresentador explica que para rodar o código em um Raspberry Pi é necessário o OpenCV versão 4.3 ou superior. Se o usuário ainda não instalou esta versão, pode seguir as instruções do apresentador em seu site.

  • 00:25:00 Nesta seção, o instrutor demonstra como configurar a detecção de objetos em um Raspberry Pi usando OpenCV e Python. Isso envolve a substituição de vários arquivos pela versão mais recente, a importação do cv2 e a verificação do número da versão. O instrutor também fornece os arquivos necessários para detecção de objetos e demonstra como editar o caminho do arquivo para que funcione corretamente. Além disso, o instrutor mostra um exemplo de detecção de objeto usando uma câmera externa e observa que pode levar algum tempo para processar. O código é executado com sucesso e o modelo é capaz de detectar objetos como garrafas, copos e controles remotos.

  • 00:30:00 Nesta seção, o apresentador demonstra a capacidade de detectar objetos específicos usando OpenCV e Python em um Raspberry Pi. Eles testam a detecção alterando o rótulo de "remoto" para "copo" e depois para "garrafa" e executam a detecção novamente. A detecção parece funcionar bem no Raspberry Pi, mas é lenta. O apresentador menciona que eles tentarão a mesma detecção em um Jetson Nano no próximo vídeo para ver o quão melhor ele funciona. Eles também convidam os espectadores a visitar seu site para baixar os arquivos e códigos gratuitamente e se inscrever em seu canal.
 

Instale e construa OpenCV python From Source no Raspberry pi 4 e 3



Instale e construa OpenCV python From Source no Raspberry pi 4 e 3

O vídeo do YouTube explica dois métodos de instalação do OpenCV para Python em um Raspberry Pi, com o primeiro envolvendo um único comando de terminal para instalar binários pré-construídos e o segundo método exigindo a compilação do OpenCV a partir da fonte. Depois de baixar o código-fonte do repositório Github, as etapas finais da criação do OpenCV a partir do código-fonte em um Raspberry Pi envolvem a execução dos comandos cmake e make, que podem levar várias horas para serem concluídos, antes de digitar o comando "sudo make install". O vídeo demonstra como verificar a instalação bem-sucedida usando um comando Python. O vídeo termina com um incentivo para curtir, se inscrever e fazer qualquer pergunta na seção de comentários.

  • 00:00:00 Nesta seção do vídeo, o apresentador explica dois métodos para instalar o OpenCV for Python em um Raspberry Pi. O primeiro método envolve a instalação de binários pré-construídos com um único comando de terminal, o que é simples, mas pode não garantir a versão mais recente do OpenCV. O segundo método é compilar o OpenCV a partir do código-fonte, o que requer a instalação de algumas dependências primeiro, download do código-fonte do repositório Github e criação e execução de um comando para compilar o código-fonte. Ambos os métodos são mostrados passo a passo no vídeo.

  • 00:05:00 Nesta seção, o vídeo discute as etapas finais de instalação e construção do OpenCV Python a partir da fonte em um Raspberry Pi 4 ou 3. Depois de executar o comando cmake e, em seguida, o comando make, que pode levar várias horas para ser concluído, a etapa final é digitar "sudo make install". Para verificar se a instalação foi bem-sucedida, o vídeo demonstra como inserir o comando "python3" e depois "importar cv2 como cv" seguido de uma instrução de impressão. Se o terminal retornar uma mensagem com a versão do OpenCV, a instalação foi bem-sucedida. O vídeo incentiva os espectadores a curtir e se inscrever no canal e a fazer qualquer pergunta na seção de comentários.
 

Rede neural em seu telefone: do treinamento à implantação por meio do ONNX



Rede neural em seu telefone: do treinamento à implantação por meio do ONNX

Neste vídeo sobre "Neural Net in your Phone: From Training to Deployment through ONNX", o apresentador demonstra como treinar uma rede neural usando a API da comunidade iNaturalist para identificar diferentes espécies de cogumelos com base no fato de serem tóxicos ou comestíveis. Eles então explicam como implantar o modelo em um iPhone usando o pacote Core ML da Apple. O palestrante também aponta a importância de formatar o modelo treinado no formato de arquivo ONNX antes de importá-lo para o Core ML. O apresentador destaca que o EfficientNet será o futuro modelo de classificação de imagens, com cuidados exigidos na seleção do modelo, e sugere a construção de classificadores para plantas, animais ou aves.

  • 00:00:00 Nesta seção, o apresentador explica como treinar um classificador de imagens de cogumelos usando a API da comunidade iNaturalist para obter centenas de imagens diferentes de todos os tipos de espécies de cogumelos. Usando o Mathematica, eles armazenaram as imagens e as classificaram conforme eram tóxicas ou comestíveis, com base em 11 espécies de cogumelos tóxicos e 11 comestíveis comuns em sua região. As imagens foram cortadas e redimensionadas antes do treinamento posterior da rede neural. O apresentador demonstra com o Fly Agarik e o Death Cap, um cogumelo mortal que também foi classificado efetivamente pelo mesmo método.

  • 00:05:00 Nesta seção, o palestrante discute o processo de treinamento de uma rede neural para identificar diferentes espécies de cogumelos, usando um modelo de rede pré-treinado do repositório da rede. Eles descrevem como criaram rótulos de classe e conjuntos de treinamento e teste e usaram o aprendizado de transferência para treinar o modelo com um método de descida de gradiente estocástico. Eles também mencionam a importância de exportar o modelo treinado no formato de arquivo ONNX, que é um formato aberto de troca de rede neural criado há alguns anos por líderes da indústria em aprendizado de máquina.

  • 00:10:00 Nesta seção, o palestrante explica como as redes neurais podem ser implantadas em um dispositivo com sistema operacional iOS usando o pacote Core ML da Apple. Para converter o modelo no formato Core ML, o palestrante mostra como usar as ferramentas CoreML para importar vários tipos de modelos de rede, incluindo ONNX, e como especificar argumentos de pré-processamento e rótulos de classe para o conjunto de dados de cogumelos usado como exemplo. O palestrante também observa que os modelos Core ML têm uma forma de funcionamento semelhante aos modelos de linguagem natural, com um codificador e um decodificador, e destaca algumas diferenças entre os dois formatos em termos de valores de pixel e viés de cores.

  • 00:15:00 Nesta seção, o palestrante explica as etapas a serem seguidas para implantar um modelo Core ML em um iPhone. Eles demonstram como substituir o modelo MobileNet pré-existente em um projeto Xcode por seu próprio modelo de espécie de cogumelo. O palestrante demonstra que o modelo funciona corretamente, testando-o em vários cogumelos que encontrou na floresta. Eles incentivam o público a verificar seu notebook Jupyter para obter mais informações.

  • 00:20:00 Nesta seção, o palestrante menciona que o modelo de melhor desempenho para classificação de imagens é o EfficientNet, que estará disponível futuramente. Porém, o usuário deve ficar atento para não escolher um modelo EfficientNet com muita memória. O palestrante adverte contra o uso do classificador para cozinhar sem a consulta de um especialista, pois alguns tipos de cogumelos podem ser mortais. No futuro, o palestrante planeja criar um fluxo de trabalho para a apresentação e oferecer postagens de blog sobre o tema. Eles também planejam incluir exemplos de áudio, como a identificação de cantos de pássaros. O palestrante sugere a criação de um grupo de estudos para tais aplicativos e temas, e destaca que o ponto ONNX cabe ao uso do Android.

  • 00:25:00 Nesta seção, o palestrante discute diferentes opções para importar observações de espécies e outras funções úteis, como importar pesquisa gpif, importação gpif e dados globais, que podem ser usados para construir classificadores em animais ou plantas. O palestrante também agradece a atenção do público e os convida a fazer mais perguntas no grupo de aprendizado de máquina da comunidade.
Razão: