Aprendizado de máquina e redes neurais - página 39

 

Contador de pessoas usando YOLOv8 e rastreamento de objetos | Contagem de pessoas (entrada e saída)



Contador de pessoas usando YOLOv8 e rastreamento de objetos | Contagem de pessoas (entrada e saída)

O vídeo explica como criar um contador de pessoas usando YOLOv8 e rastreamento de objetos. O processo envolve detectar objetos com IDs únicos, encontrar a coordenada central do objeto detectado, rastrear objetos com Deep SORT e detectar quando os objetos cruzam linhas específicas para contar o número de pessoas entrando e saindo de uma área específica. Os IDs exclusivos são armazenados em listas para contar as pessoas que entram e saem da área, e as contagens são exibidas graficamente com círculos verdes e vermelhos. O vídeo também fornece código para o projeto e demonstra a saída do sistema em tempo real.

  • 00:00:00 Nesta seção do tutorial em vídeo, o apresentador explica como criar um contador de pessoas usando YOLO V8 e rastreamento de objetos. O fluxo do processo começa com a implementação da detecção de objetos YOLO V8 para detectar pessoas e atribuir um ID exclusivo a cada objeto detectado. Em seguida, a coordenada central do objeto detectado é encontrada, seguida pelo rastreamento do objeto usando Deep SORT, que atribui um ID exclusivo a cada objeto detectado. Depois, linhas são desenhadas para detectar quando uma pessoa as cruza e seu ID exclusivo é adicionado a uma lista. Finalmente, o comprimento da lista é encontrado para obter a contagem total de pessoas que cruzam cada linha.

  • 00:05:00 Nesta seção, o vídeo explica o processo de contagem de pessoas usando YOLOv8 e rastreamento de objetos. O método envolve rastrear a coordenada central da caixa delimitadora do objeto e detectar quando ela cruza uma linha verde. O ID exclusivo do objeto é adicionado a uma lista, que é usada para calcular a contagem total de objetos que passaram pela linha. O processo é repetido quadro a quadro e a contagem é incrementada cada vez que um objeto passa pela linha. O vídeo também demonstra o código usado para este projeto, que inclui a instalação de dependências e o uso do método de rastreamento de objetos de classificação profunda.

  • 00:10:00 Nesta seção do vídeo, o apresentador baixa os arquivos do Deep Sort e abre o script de previsão para fazer as alterações necessárias para os requisitos do projeto. O apresentador remove rastros e dados desnecessários e cria duas linhas para contagem crescente e regressiva usando a entrada de vídeo. Eles encontram os pontos de coordenadas para cada linha, o que lhes permitirá acompanhar o número de pessoas que cruzaram cada linha e a contagem total. O apresentador compartilha sua tela para demonstrar como encontrar as coordenadas e enfatiza a importância de focar na área correta.

  • 00:15:00 Nesta seção, o palestrante explica como definir as coordenadas da linha e criar uma lista vazia. As coordenadas da linha são copiadas de uma etapa anterior, e a lista vazia armazenará o ID exclusivo dos objetos que a atravessam. O script também calcula a largura e a altura da caixa delimitadora e armazena o ID exclusivo na lista apropriada, dependendo se a pessoa está subindo ou descendo. O alto-falante fornece uma representação visual dos pontos e coordenadas usados nesta seção.

  • 00:20:00 Nesta seção do vídeo, o palestrante explica o código do projeto People Counter usando YOLOv8 e Object Tracking. Eles passam pelas coordenadas CX e CY, que representam as coordenadas centrais da caixa delimitadora e como são usadas para desenhar um círculo e um retângulo ao redor do objeto detectado. O palestrante também explica como o ID exclusivo e o rótulo de cada objeto são adicionados ao retângulo usando a função cv2.puttext. Finalmente, eles explicam como o ID único é armazenado na lista vazia quando a coordenada CX do objeto cruza uma determinada linha, indicando uma entrada ou saída.

  • 00:25:00 Nesta seção, o apresentador explica como o ID exclusivo é anexado à lista de contagem total de pessoas subindo e descendo. Quando a coordenada do centro passar acima ou abaixo da linha, dependendo da contagem, ela será anexada à respectiva lista. O comprimento de cada lista representa o número de pessoas subindo e descendo, que é exibido graficamente usando dois círculos onde o verde representa as pessoas subindo e o vermelho as pessoas descendo. O apresentador enfatiza a definição de contagem total global e variáveis de redução total e a criação de uma linha usando cb2.9. O código faz uso do círculo CPU/DPM para criar a representação circular da contagem. O apresentador lembra aos visualizadores para garantir que o tempo de execução esteja definido como GPU, e a sessão pode demorar alguns segundos para baixar os arquivos necessários.

  • 00:30:00 Nesta seção, o palestrante está demonstrando como baixar e executar um script que usa YOLOv8 e Rastreamento de Objetos para contar o número de pessoas entrando e saindo de uma área específica em um vídeo. O script divide o vídeo em quadros e os processa um a um para rastrear o movimento das pessoas e contá-los à medida que cruzam linhas específicas. A saída é um vídeo anotado que mostra o número de pessoas entrando e saindo da área em tempo real. O palestrante também mostra o vídeo de saída e explica como o script conta com sucesso o movimento das pessoas.

  • 00:35:00 Nesta seção, o tutorial em vídeo demonstra o uso de YOLOv8 e rastreamento de objetos para contar as pessoas que entram e saem de uma determinada área. O sistema conta os indivíduos que cruzam uma linha na imagem e exibe a contagem como uma contagem crescente ou regressiva, dependendo da direção do movimento. O arquivo de script para o sistema também é compartilhado e os espectadores são incentivados a se inscrever no canal e deixar um joinha.
 

Detecção, rastreamento, desfoque e contagem de objetos em tempo real usando YOLOv8: um tutorial passo a passo



Detecção, rastreamento, desfoque e contagem de objetos em tempo real usando YOLOv8: um tutorial passo a passo

Este tutorial se concentra na implementação de desfoque e contagem de objetos com detecção e rastreamento de objetos em tempo real usando o YOLOv8. O tutorial fornece etapas para baixar os arquivos necessários, incluindo arquivos Deep Sort para rastreamento de objetos e um vídeo de amostra para teste. O tutorial usa a biblioteca CV2 do OpenCV para desfocar os objetos detectados e fornece código para detecção, rastreamento e desfoque de objetos. O palestrante demonstra o processo de determinação das coordenadas da caixa delimitadora, recortando a imagem e aplicando a função de desfoque. Além disso, o apresentador explica o código para contar o número total de objetos em cada quadro usando um dicionário e demonstra como o código detecta, rastreia e desfoca objetos enquanto exibe a contagem total de objetos em cada quadro. No geral, os resultados são bons e um repositório GitHub para o projeto é fornecido na descrição.

  • 00:00:00 Nesta seção do tutorial, o foco está em desfocar os objetos detectados e contar o número de objetos em cada quadro. O tutorial usa YOLOv8 para detecção de objetos com ID de rastreamento e trilhas. O tutorial fornece um guia passo a passo, desde a seleção do tempo de execução da GPU até a execução dos scripts para download dos arquivos necessários, incluindo arquivos Deep Sort para rastreamento de objetos e um vídeo de amostra para teste. O tutorial também destaca o uso da biblioteca CV2 do OpenCV para desfocar os objetos detectados e fornece código para implementar detecção, rastreamento e desfoque de objetos.

  • 00:05:00 Nesta seção, o tutorial em vídeo explica como desfocar os objetos detectados na detecção e rastreamento de objetos em tempo real usando o YOLOv8. Para implementar isso, é preciso saber as coordenadas da caixa delimitadora, que inclui o vértice superior esquerdo e o vértice inferior direito, e então desfocar o objeto dentro dessa caixa delimitadora. As coordenadas são armazenadas no arquivo "predict.pi", e pode-se obter esses valores para desfocar os objetos.

  • 00:10:00 Nesta seção do vídeo, o palestrante explica como desfocar o objeto dentro da caixa delimitadora do objeto detectado. Ele primeiro determina as coordenadas da caixa delimitadora antes de recortar a imagem para conter apenas a área onde a caixa delimitadora está localizada. Em seguida, ele aplica a função de desfoque usando o desfoque de ponto CV2 e define a proporção de sangue, que determina o desfoque da área. O palestrante demonstra o processo escrevendo e executando o script.

  • 00:15:00 Nesta seção do vídeo, o apresentador demonstra como implementar o desfoque de objetos usando YOLOv8 para detecção, rastreamento e contagem de objetos em tempo real. Depois de fazer algumas pequenas correções e executar o script, o apresentador mostra os resultados do recurso de desfoque do objeto, que funciona bem. Em seguida, o apresentador passa a explicar o código para contar o número total de objetos em cada quadro, o que envolve a criação de um dicionário que contém o nome do objeto e o número de vezes que ele aparece no quadro atual. O apresentador não mostra o código dessa parte para evitar que o vídeo fique muito longo.

  • 00:20:00 Nesta seção, o apresentador explica a função de contagem, que extrai chaves e valores de um dicionário contendo nomes de objetos e sua contagem (o número de aparições no quadro frontal atual). Esta função cria um retângulo e o sobrepõe com o texto exibindo o número de vezes que o objeto apareceu. O apresentador também demonstra como o código detecta e rastreia objetos, desfoca-os e exibe a contagem total de objetos em cada quadro. Os resultados são bons e um repositório GitHub para o projeto é fornecido na descrição.
 

Treinar YOLOv8 em conjunto de dados personalizado | Detecção e Reconhecimento de Alfabetos de Língua de Sinais usando YOLOv8



Treinar YOLOv8 em conjunto de dados personalizado | Detecção e Reconhecimento de Alfabetos de Língua de Sinais usando YOLOv8

O vídeo demonstra a implementação do YOLOv8 em um conjunto de dados personalizado para detecção e reconhecimento do alfabeto da língua de sinais. O processo envolve baixar o conjunto de dados, treinar o modelo por 50 épocas e avaliar seu desempenho usando a matriz de confusão e as perdas de treinamento e validação. O apresentador também discute como as previsões do modelo no lote de validação e as imagens não usadas para treinamento são validadas para determinar como ele se comporta em diferentes imagens. O modelo treinado é então validado e testado nas imagens do conjunto de dados de validação, e uma inferência de vídeo de demonstração é mostrada com bons resultados. No geral, o vídeo destaca a aplicação do YOLOv8 para treinamento de conjuntos de dados personalizados e detecção de objetos.

  • 00:00:00 Nesta seção do vídeo, o apresentador apresenta o tópico de treinamento YOLOv8 em dados personalizados para detecção e reconhecimento de alfabetos de língua de sinais. Eles explicam o processo passo a passo e discutem como um sistema de detecção e reconhecimento de alfabeto em linguagem de sinais pode ser implementado usando o YOLOv8. O apresentador importa várias bibliotecas, incluindo SO, exibição IPython e G-LOP, que são necessárias para exibir matrizes de confusão, perdas de treinamento e validação e imagens de teste. O apresentador mostra como verificar o acesso à GPU e define uma variável auxiliar para facilitar a navegação entre diferentes pastas contendo imagens de conjuntos de dados. Por fim, eles instalam o Ultra Analytics usando "pip install" e verificam se o YOLOv8 está instalado e funcionando bem.

  • 00:05:00 Nesta seção, o vídeo demonstra o processo de implementação do YOLOv8 em um conjunto de dados personalizado para detecção e reconhecimento do alfabeto da língua de sinais. O conjunto de dados é baixado do Roboflow e o modelo YOLOv8 é treinado nele por 50 épocas. A Matriz de Confusão é usada para avaliar o desempenho do modelo, identificando o quão bem o modelo pode detectar e classificar diferentes classes. Os resultados mostram que o modelo foi capaz de detectar corretamente o Alfabeto A em 60% das vezes, mas algumas vezes resultou em classificação incorreta ou não foi capaz de detectá-lo. No geral, o vídeo destaca a aplicação do YOLOv8 para treinamento de conjuntos de dados personalizados e detecção de objetos.

  • 00:10:00 Nesta seção do vídeo, o apresentador discute a matriz de confusão, que mostra o quão bem o modelo lidou com diferentes classes, e as perdas de treinamento e validação, sendo as mais importantes os logs de caixa e a perda de classificação. As previsões do modelo no lote de validação também são mostradas e as imagens não usadas para treinamento são validadas para determinar como o modelo se comporta em diferentes imagens. O modelo personalizado é então validado e testado nas imagens do conjunto de dados de validação, seguido por inferência de vídeo de demonstração, que mostra o modelo detectando e reconhecendo alfabetos de linguagem de sinais com bons resultados. Por fim, os espectadores são incentivados a testar seus próprios modelos com o conjunto de dados de vídeo fornecido.
 

Segmentação YOLOv8 com rastreamento de objetos: implementação de código passo a passo | Google Colab | janelas



Segmentação YOLOv8 com rastreamento de objetos: implementação de código passo a passo | Google Colab | janelas

Este tutorial em vídeo fornece um guia abrangente sobre como implementar a segmentação YOLOv8 com ID de rastreamento de classificação profunda e trilhas. O apresentador conduz os visualizadores pelo processo de importação dos arquivos de script necessários, instalação de dependências e configuração do diretório necessário para segmentação e rastreamento de objetos com classificação profunda. O tutorial inclui uma demonstração de rastreamento de objetos com IDs exclusivos e trilhas de movimento e uma discussão sobre o repositório GitHub que fornece código de solução de um clique para segmentação YOLOv8 e rastreamento de classificação profunda. O tutorial também apresenta um programa de patreon com acesso exclusivo a tutoriais em vídeo que não serão carregados no canal do YouTube. No geral, o tutorial oferece uma explicação passo a passo da implementação do código para segmentação YOLOv8 com rastreamento de objetos.

  • 00:00:00 Nesta seção do tutorial em vídeo, os espectadores são orientados sobre como implementar a segmentação YOLO V8 com ID de rastreamento de classificação profunda e trilhas. O tutorial fornece uma explicação completa do código com uma demonstração do processo de implementação no Google Colab, bem como no Windows e no Linux. Os espectadores também são apresentados a um novo programa de patreon, que oferece acesso exclusivo a dois a três projetos por semana, incluindo tutoriais em vídeo que não serão enviados para o canal do YouTube. O vídeo termina com uma discussão sobre o repositório GitHub, que fornece o código de solução de um clique para segmentação YOLO V8 e rastreamento de classificação profunda, facilitando a implementação em conjuntos de dados personalizados ou no conjunto de dados MS Coco pré-treinado.

  • 00:05:00 Nesta seção, o apresentador percorre as etapas iniciais envolvidas na implementação da segmentação YOLOv8 com rastreamento de objetos. A primeira etapa envolve a clonagem do repositório do GitHub e a importação de todos os arquivos de script necessários. As dependências são instaladas usando o arquivo setup.py e o diretório necessário é definido para executar a segmentação e o rastreamento de objetos com classificação profunda. O apresentador baixa um vídeo de amostra para teste do Google Drive e demonstra como o rastreamento de objetos é realizado com IDs exclusivos atribuídos a cada objeto e trilhas mostrando o movimento de cada objeto. O vídeo termina com uma explicação de como implementar o YOLOv8 em um sistema Windows usando o PyCharm.

  • 00:10:00 Nesta seção, o palestrante fornece um guia passo a passo para implementar a segmentação YOLOv8 com rastreamento de objetos no Google Colab no Windows. O processo envolve clonar o repositório GitHub, definir o diretório atual como a pasta clone, instalar todas as dependências e baixar os arquivos de classificação profunda. Os arquivos de classificação profunda são necessários para implementar o rastreamento de objetos usando o algoritmo de classificação profunda. Esses arquivos são baixados e extraídos na pasta tutorial segmentada. O palestrante também menciona que existem vários algoritmos de rastreamento de objetos disponíveis que podem ser usados em vez da classificação profunda.

  • 00:15:00 Nesta seção, o palestrante discute o algoritmo de rastreamento de objetos e observa que, após o teste, eles descobriram que o algoritmo de classificação profunda tem o melhor desempenho. Eles explicam que usarão o algoritmo SORT para rastreamento no script. O palestrante baixa um vídeo de demonstração e mostra o código, explicando o modelo pré-treinado YOLOv8-sec BT usado para rastreamento de objetos. Eles também discutem os vários modelos de YOLOv8 e suas compensações entre velocidade e precisão. Por fim, o palestrante explica o script predict.5 e destaca como as cores da caixa delimitadora são definidas para os objetos detectados.

  • 00:20:00 Nesta seção, o palestrante demonstra a função que cria um retângulo ao redor do objeto detectado, atribui um ID e rótulo exclusivos e cria uma caixa delimitadora. Eles explicam como a função da caixa de toque da interface do usuário é usada para criar a caixa delimitadora e o retângulo acima, enquanto a função CV ponto dois retângulo cria o retângulo ao redor do objeto detectado. O palestrante também mostra como a função Draw Dash boxing encontra o centro da borda inferior da caixa delimitadora para desenhar trajetórias e atribui a cada objeto um ID exclusivo. No geral, o palestrante fornece uma explicação passo a passo da implementação do código para segmentação YOLOv8 com rastreamento de objetos.

  • 00:25:00 Nesta seção, o palestrante explica o uso de uma fila dupla (DQ) em vez de uma lista para armazenar dados. O DQ é usado para armazenar valores de objetos e remover o ID de um objeto que não está no quadro atual. Os dados são usados para desenhar trilhas usando a linha de ferramentas CV2. A segmentação é realizada e o vídeo de saída mostra as trilhas e os objetos detectados com ID exclusivo atribuído. O palestrante observa que o script pode demorar mais para ser executado em uma CPU, mas pode ser executado em uma GPU com as mesmas etapas.
 

YOLOv8 | Detecção de objetos | Segmentação | Tutorial Completo Google Colab| Solução de clique único



YOLOv8 | Detecção de objetos | Segmentação | Tutorial Completo Google Colab| Solução de clique único

O tutorial em vídeo demonstra como implementar o YOLOv8 usando o Google Colab para detecção e segmentação de objetos. Os usuários são orientados pelas etapas de clonagem do repositório GitHub, instalação de pacotes, configuração de diretórios e importação de vídeos de demonstração do Google Drive para teste. O usuário também aprende como executar o modelo YOLOv8 para detecção de objetos em um vídeo de demonstração, como corrigir problemas de espaçamento e como salvar e baixar o vídeo de saída. O tutorial também aborda a segmentação com YOLOv8 e enfatiza a importância de remover arquivos compactados anteriores antes de prosseguir. Um link para baixar o arquivo do notebook é fornecido e os espectadores são incentivados a fazer perguntas na seção de comentários.

  • 00:00:00 Nesta seção, o apresentador discute a implementação do YOLOv8 usando o Google Colab para detecção e segmentação. O tutorial começa com a clonagem do repositório YOLOv8 GitHub e a instalação dos pacotes necessários. O apresentador demonstra como configurar o sistema com os diretórios necessários e importar vídeos de demonstração do Google Drive para teste. Seguindo essas etapas e executando as células fornecidas, os usuários podem instalar e implementar o YOLOv8 no Google Colab para detecção e segmentação de objetos.

  • 00:05:00 Nesta seção, o tutorial em vídeo discute a execução do modelo YOLOv8 para detecção de objetos em um vídeo de demonstração. O vídeo é importado para a pasta e o repositório YOLOv8 GitHub é adicionado ao notebook. O vídeo 'teste 1' é então testado para detecção com o modelo YOLOv8, e quaisquer problemas de espaçamento são corrigidos antes de tentar o vídeo 'teste 2'. O vídeo de saída é salvo em um caminho e pode ser baixado para revisar os resultados, mas o tutorial também inclui um script para mostrar o vídeo de demonstração no Google Colab usando HTML e bibliotecas do sistema operacional.

  • 00:10:00 Este trecho parece ser a continuação de um tutorial sobre como criar um modelo de detecção de objetos usando YOLOv8 no Google Colab. O alto-falante está fazendo alguns ajustes no código e verificando se há erros para garantir que o caminho esteja correto para o vídeo de saída. Eles mencionam um problema com a falta de RB.free e um problema de espaçamento, que eles corrigem antes de executar o código novamente. O vídeo mostra a saída do modelo de detecção de objetos.

  • 00:15:00 Nesta seção, o usuário realiza a segmentação usando YOLOv8. Eles copiam o código necessário e o executam para realizar a segmentação, obtendo resultados impressionantes no vídeo de saída. O usuário enfatiza a importância de remover o arquivo compactado anterior antes de prosseguir com a segmentação. Eles também fornecem um link para baixar o arquivo do notebook e incentivam os espectadores a fazer qualquer pergunta que possam ter na seção de comentários.
 

Reconhecimento de Emoção de Rosto AI | Identificando expressões faciais com V7



Reconhecimento de Emoção de Rosto AI | Identificando expressões faciais com V7

Os tutoriais em vídeo discutem o processo de uso da plataforma V7 para criar conjuntos de dados anotados para reconhecimento de emoções faciais de IA. Os tutoriais abrangem vários aspectos do processo, incluindo a criação de um conjunto de dados, anotação de emoções em imagens e vídeos, treinamento do modelo e teste em imagens de amostra e webcams ao vivo. A importância da rotulagem precisa para o treinamento eficaz de modelos de IA é enfatizada ao longo dos tutoriais, e os recursos e vários modelos da plataforma V7 são destacados. Os tutoriais fornecem exemplos completos do processo de anotação para identificar expressões faciais usando IA.

  • 00:00:00 Nesta seção, o YouTuber explica como usar a plataforma V7 para criar um detector de expressão facial. Eles passam pelas etapas de criação de um conjunto de dados, upload de imagens e vídeos e rotulação do conjunto de dados. A plataforma V7 permite que o usuário treine seu modelo para detecção ou segmentação e classificação de objetos e teste-o em amostras de imagens, vídeos ou até mesmo em webcam. O YouTuber usa o exemplo de uma expressão facial de raiva e carrega imagens para treinar o modelo. Eles também mencionam que o V7 oferece vários formatos para imagens e vídeos, incluindo PNG, JPG, JFIF, MP4 e ABI, entre outros. No geral, este vídeo fornece um tutorial completo sobre como implementar um detector de expressão facial usando a plataforma V7.

  • 00:05:00 Nesta seção, o apresentador percorre o processo de anotação de expressões faciais com V7 labs. Usando o exemplo da classe raivosa, o apresentador demonstra como desenhar uma caixa delimitadora ao redor do rosto de uma pessoa e, em seguida, criar um rótulo de classe para emoções raivosas. O apresentador passa a anotar todas as 50 imagens incluídas no conjunto de dados, observando que o processo também pode ser replicado para anotar quadros de vídeo. No geral, o apresentador enfatiza a importância da rotulagem precisa para o treinamento eficaz de modelos de reconhecimento de emoções faciais de IA.

  • 00:10:00 Nesta seção do vídeo, o apresentador mostra como anotar quadros de um conjunto de dados de vídeo para criar imagens visuais para reconhecimento de emoções por IA. O apresentador carrega um conjunto de dados de vídeo e extrai um quadro por segundo para criar imagens individuais. As imagens são anotadas separadamente para identificar a emoção representada. O apresentador observa que o processo é demorado, mas importante para criar um conjunto de dados abrangente para aprendizado de máquina. O apresentador também demonstra a capacidade de anotar imagens e vídeos para reconhecimento de emoções por IA. No geral, esta seção fornece um tutorial útil para criar conjuntos de dados anotados para reconhecimento de emoções de IA.

  • 00:15:00 Nesta seção, o palestrante explica o processo de upload e anotação de um conjunto de dados para a classe "feliz" no reconhecimento de emoções faciais de IA usando a tecnologia V7. O palestrante carrega 50 imagens e as anota uma a uma com o rótulo "feliz". Eles mencionam que um total de 182 imagens foram anotadas até agora, incluindo 100 para a classe "irritada". Eles também discutem o upload de um vídeo e a divisão em quadros separados para anotar cada um para expressões faciais.

  • 00:20:00 Nesta seção, o tutorial em vídeo demonstra o processo de anotação para identificar indivíduos felizes e medrosos em vídeos e imagens usando o reconhecimento de emoções faciais por IA. O anotador carrega 66 vídeos de pessoas felizes e os anota com o Envision, girando em cada quadro e rotulando expressões felizes ou neutras. Em seguida, o anotador adiciona uma nova classe para medo e carrega 50 imagens, então anota cada imagem com o rótulo de emoção apropriado. O conjunto de dados completo contém 248 imagens e vídeos, e o tutorial fornece um exemplo completo do processo de anotação para identificar expressões faciais usando IA.

  • 00:25:00 Nesta seção, o YouTuber discute seu progresso na anotação e animação de imagens para seu projeto de reconhecimento de emoções faciais por IA. Eles anotaram com sucesso todas as 50 imagens do vidro transparente e também concluíram a anotação quadro a quadro de um vídeo de pessoa com medo. O YouTuber então passa a anotar todas as imagens para a aula surpresa, que é sua última aula, e menciona que passará para a parte de treinamento do vídeo após concluir todas as anotações. O vídeo mostra um diagrama de fluxo de trabalho para o projeto, e o YouTuber esclarece que fará a detecção de objetos e criará caixas delimitadoras em vez de segmentação ou classificação instantânea.

  • 00:30:00 Nesta seção, o tutorial em vídeo demonstra o processo de treinamento de um modelo de IA em um conjunto de dados de expressões faciais e emoções usando o V7. O tutorial mostra como agendar e monitorar o treinamento do conjunto de dados, com uma notificação por e-mail enviada após a conclusão. O vídeo também destaca as métricas de desempenho do modelo, incluindo precisão média e recall, bem como perdas, que diminuíram continuamente ao longo do tempo. O tutorial conclui mostrando como o modelo treinado pode ser implantado para uso em várias APIs usando Python, shell, JavaScript ou Elixir e como o modelo também pode ser testado em webcams ao vivo.

  • 00:35:00 Nesta seção, o palestrante demonstra o reconhecimento de emoções faciais de IA usando laboratórios V7. O processo envolve coletar e rotular conjuntos de dados de imagem para as emoções de raiva, felicidade, medo, surpresa e muito mais. O palestrante treina o modelo e o testa usando uma webcam e amostras de imagens, obtendo bons resultados. V7 labs também oferece vários modelos para tarefas como segmentação e digitalização de texto, e os usuários podem criar seus próprios modelos com créditos gratuitos. O palestrante sugere projetos futuros usando o V7 e incentiva os espectadores a compartilhar e curtir o vídeo.
 

Detecção e rastreamento de jogador de futebol e bola em tempo real usando o YOLOv8 Live: Rastreamento de objetos YOLOv8



Detecção e rastreamento de jogador de futebol e bola em tempo real usando o YOLOv8 Live: Rastreamento de objetos YOLOv8

Neste tutorial em vídeo do YouTube, o apresentador demonstra o processo de criação de um conjunto de dados de rastreamento e detecção de jogador de futebol e bola usando o Roboflow. O apresentador percorre as etapas de upload e anotação de imagens, preparação do conjunto de dados, treinamento do modelo, teste em vídeos de amostra e webcam ao vivo e modificação do código para melhorar o rastreamento. No geral, o modelo YOLOv8 funciona bem, mas tem algumas limitações na detecção de futebol em determinados cenários.

  • 00:00:00 Nesta seção do tutorial, o apresentador percorre o processo de criação de um conjunto de dados de detecção de bola e jogador de futebol usando o Roboflow. Eles demonstram como se inscrever para uma conta e criar um novo projeto, bem como fazer upload e processar vídeos do YouTube para extrair quadros para anotação. O apresentador observa que os quadros ainda não foram anotados e passa a carregar outro vídeo para anotação.

  • 00:05:00 Nesta seção, o criador do vídeo demonstra o processo de upload e anotação de imagens para um jogador de futebol e projeto de detecção e rastreamento de bola. O criador carrega imagens e extrai quadros de um vídeo, atribuindo a si o trabalho de anotar as imagens. Eles anotam cada imagem com rótulos para futebol ou jogador de futebol e demonstram a anotação de diferentes jogadores em cada imagem. Por fim, eles observam que anotaram um total de 1827 imagens para o projeto.

  • 00:10:00 Nesta seção do vídeo, o apresentador fala sobre como preparar o conjunto de dados para um jogador de futebol e modelo de detecção de bola redimensionando todas as imagens para 640x640, filtrando imagens não anotadas e gerando dados aumentados para aumentar o conjunto de dados tamanho. Os dados aumentados incluem duas imagens com diferentes contrastes e níveis de brilho gerados a partir de uma única imagem. O apresentador exporta o conjunto de dados do Roboflow para um arquivo do Google Colab e treina o modelo usando um conjunto de dados de futebol extraído de um repositório GitHub. Eles também conectam o Google Drive ao notebook Colab para salvar os pesos do modelo treinado.

  • 00:15:00 Nesta seção, o usuário define seu diretório de trabalho atual como seu repositório GitHub e instala todas as dependências necessárias para evitar erros durante a execução do processo de detecção ou previsão. Em seguida, eles se movem para o diretório necessário, detectam e baixam o conjunto de dados do roboflow em seu bloco de anotações do Google. O usuário também baixa os arquivos do Deep Sort e os descompacta para implementar o rastreamento de objetos usando o Deep Sort. Por fim, eles treinam o modelo personalizado de YOLOv8 no jogador de futebol e no conjunto de dados de futebol e o validam, garantindo uma boa média média. O usuário pode revisar os resultados do treinamento, incluindo a curva F1, a curva de precisão, a curva de rechamada e os resultados do banco de treinamento e validação.

  • 00:20:00 Nesta seção, o palestrante discute os resultados de seu modelo YOLOv8 para detecção e rastreamento de jogador de futebol e bola. Eles relatam resultados precisos, com precisão média de 0,63144 e 0,476 para jogadores e boa detecção de futebol. O palestrante demonstra como baixou um vídeo de amostra para testar seu modelo e mostra os resultados, além de colocar o modelo em um teste de webcam ao vivo. No geral, o modelo funcionou bem na detecção de jogadores e na atribuição de IDs exclusivos, mas houve algumas detecções perdidas de futebol.

  • 00:25:00 Nesta seção, o vídeo mostra como remover o ID exclusivo atribuído à bola no código para simplificar o processo de rastreamento. As modificações de código são feitas editando o arquivo project.py e removendo o ID exclusivo atribuído ao rótulo de futebol. O vídeo de saída é então baixado e testado em uma webcam ao vivo, onde o modelo consegue detectar com sucesso a bola de futebol, mas não o jogador, pois eles não estão vestidos como um jogador. No geral, as modificações feitas no código melhoraram o processo de rastreamento e produziram resultados satisfatórios.

  • 00:30:00 Nesta seção, o apresentador demonstra um script que foi escrito para realizar previsões na webcam ao vivo usando YOLOv8. O script importa YOLO, define o arquivo de pesos e executa previsões com uma fonte definida como 0 e show definido como verdadeiro. O valor de confiança é definido como 0,15. Vestida como jogadora, a modelo não conseguiu detectar o apresentador, mas os resultados para detectar uma bola de futebol foram bem-sucedidos.
 

YOLOv8 e VGG16 para Face, Detecção de Gênero, Contagem de Faces e Rastreamento de Pessoas | Conjunto de dados personalizado



YOLOv8 e VGG16 para Face, Detecção de Gênero, Contagem de Faces e Rastreamento de Pessoas | Conjunto de dados personalizado

O tutorial em vídeo explica o processo de detecção facial, classificação de gênero, contagem facial e rastreamento de pessoas usando os modelos YOLOv8 e VGG16. O tutorial abrange vários aspectos da implementação e treinamento desses modelos, incluindo preparação de dados, aumento de dados, ajuste fino do modelo VGG16 pré-treinado, usando aprendizado de transferência e treinamento do modelo YOLOv8 para detecção facial. O apresentador também explica como montar um Google Drive em um notebook do Google Colab, acessar e converter conjuntos de dados de imagens, baixar as bibliotecas necessárias e integrar o rastreamento de objetos usando o deepsort. O tutorial fornece explicações de código detalhadas para desenhar caixas delimitadoras em torno de objetos detectados, integrando o modelo de classificação de gênero, contando o número de faces em um quadro e atribuindo a cada face detectada uma ID exclusiva usando deepsort.update.

  • 00:00:00 Nesta seção do tutorial em vídeo, é explicado o fluxo de trabalho para detecção de rosto com classificação de gênero e contagem de rosto com rastreamento usando YOLOv8 e VGG16. O primeiro passo é preparar o conjunto de dados com imagens de rostos de homens e mulheres, para treinar o modelo VGG16 para detecção de gênero, seguido do treinamento do modelo YOLOv8 para detecção de rosto. Com a detecção de face do YOLOv8, a classificação de gênero é feita usando o modelo VGG16 treinado. O rastreamento de objetos é então implementado usando o Deepsort, atribuindo um ID exclusivo a cada rosto ou pessoa detectada. O notebook é dividido em nove etapas, incluindo importar as bibliotecas necessárias, montar o Google Drive, carregar o conjunto de dados, converter imagens e rótulos em matrizes, aplicar aumento de dados, ajustar o modelo VGG16 em dados de classificação de gênero, plotar perda de treinamento e validação e testando com uma imagem de amostra.

  • 00:05:00 Nesta seção, o palestrante discute várias bibliotecas e funções que podem ser usadas para converter imagens em matrizes numpy e vice-versa. Eles também explicam o uso da biblioteca categórica de dois traços e o conceito de abordagens sequenciais e funcionais para organizar as camadas na rede neural. A camada plana é usada para converter entradas multidimensionais em unidimensionais, enquanto a camada densa é usada para definir o tamanho da camada de saída. Além disso, eles discutem o uso do aprendizado de transferência com o modelo VGG16 e a importação de bibliotecas de divisão de teste de trem, numpy e SO. Finalmente, eles mencionam o uso da biblioteca gdob para acessar todos os arquivos em uma pasta e a biblioteca aleatória para embaralhar conjuntos de dados de imagens.

  • 00:10:00 Nesta seção, o vídeo explica como montar um Google Drive com um notebook Google Colab para acessar um conjunto de dados, que é carregado em formato zip. O conjunto de dados inclui imagens de rostos de homens e mulheres, e o vídeo mostra como descompactar e acessar a pasta que contém essas imagens. Usando a biblioteca glob, o vídeo acessa todos os arquivos de imagem nas pastas do conjunto de dados e os converte em um formato de matriz com rótulos indicando se a imagem é um rosto de homem ou mulher. O vídeo mostra uma imagem de exemplo e explica como a variável de arquivos de imagem contém todos os caminhos de arquivo de imagem da pasta men e women, que podem ser lidos usando cb2.im read.

  • 00:15:00 Nesta seção, o palestrante explica como preparou seu conjunto de dados para detecção de face e gênero. Eles criaram uma pasta 'men' e 'women', redimensionaram as imagens dentro delas e as converteram em arrays que foram então armazenados em uma lista de dados. Eles anexaram os valores de rótulo correspondentes em uma lista de rótulos, com 1 para mulheres e 0 para homens. As listas de dados e rótulos foram convertidas em matrizes usando o NumPy. O palestrante também demonstra o aumento de dados com o uso de um gerador de dados de imagem, gerando várias imagens a partir de uma única imagem aplicando várias transformações. Eles então ajustaram um modelo VGG16 pré-treinado em seu conjunto de dados de classificação de gênero e implementaram a ativação softmax para definir a camada de saída. O tamanho da saída foi definido como 2 para classificar homens ou mulheres.

  • 00:20:00 Nesta seção do tutorial em vídeo, o palestrante demonstra o modelo VGG16 para detecção de face e gênero e mostra como treiná-lo em um conjunto de dados de classificação geral. O modelo é salvo no formato .H5 e sua precisão, precisão de validação e perda de peças são calculadas. Usando cv2.dsize, a imagem é redimensionada para dimensões de 100x100 e convertida em uma matriz, e o modelo prevê se a imagem contém um homem ou uma mulher. Na próxima parte do tutorial, o modelo YOLOv8 será treinado em um conjunto de dados de face para detectar faces e atribuir um ID exclusivo para rastreamento. O palestrante também menciona que a contagem facial será implementada usando um código simples adicionado ao arquivo predict.pi. No geral, o tutorial é dividido em sete etapas.

  • 00:25:00 Nesta seção, o apresentador apresenta o repositório GitHub que usará para implementar o rastreamento de objetos usando deep sort, bem como o modelo YOLO V8 para redução de faces. Eles discutem como irão detectar rostos e realizar a classificação de gênero antes de integrar o código de rastreamento de objetos de classificação profunda para atribuir a cada pessoa um ID exclusivo. O apresentador define seu diretório atual como o repositório de clonagem e instala todas as bibliotecas e dependências necessárias para o script. Eles também baixam o conjunto de dados do RoboFlow em seu bloco de anotações do Google Colab, mas encontram problemas por terem uma conta privada.

  • 00:30:00 usando os pesos do modelo YOLOv8 pré-treinado para detecção de face. O conjunto de dados é baixado e salvo em minha conta do Google Drive, e já treinei um modelo YOLOv8 por 80 épocas para detecção de rosto. O modelo treinado já foi salvo e os pesos foram baixados no bloco de anotações do Google Colab. Os arquivos de classificação profunda também são baixados no notebook, pois o rastreamento de objetos será implementado usando a classificação profunda. Além disso, uma modelo VGG16 foi treinada para detecção de gênero e o arquivo .h5 da modelo foi salvo e baixado na conta do Google Drive. Os vídeos de amostra são baixados do Google Drive para testar o script predict.pi, que inclui o código do classificador de gênero e a contagem facial.

  • 00:35:00 Nesta seção, o palestrante explica o código que foi adicionado para implementar o rastreamento de objetos usando classificação profunda. A porta de rastreamento de objetos de classificação profunda é inicializada e uma função é definida para converter a saída recebida do modelo YOLOv8 em um formato compatível para classificação profunda. A função de caixa de interface do usuário cria caixas delimitadoras em torno dos objetos detectados, enquanto a função de caixa de desenho chama a caixa de interface do usuário e as funções de borda de desenho para desenhar um retângulo arredondado para o texto. O código de rastreamento de classificação profunda é integrado junto com a capacidade de desenhar trilhas. O palestrante então explica o código para o classificador de gênero e a função de contagem no arquivo Paint. A função de contagem é usada para contar cada objeto em cada quadro. No geral, o código explica como converter os valores de saída X1, Y1, X2 e Y2 de YOLOv8 em coordenadas centrais, valores de altura e largura para rastreamento de objetos usando classificação profunda, implementando detecção de objetos e rastreamento de objetos em um aplicativo do mundo real.

  • 00:40:00 Nesta seção, o palestrante discute a conversão do modelo YOLOv8 nas coordenadas do centro xcyc da caixa delimitadora e largura e altura da caixa delimitadora para torná-lo compatível com o rastreamento de objetos de classificação profunda. Eles também explicam como a função de cálculo de cor para rótulo atribui cores exclusivas aos objetos detectados e a função de desenho Dash border cria um retângulo acima da caixa delimitadora onde o rótulo e a pontuação de confiança são escritos. O palestrante também fala sobre a classe classificadora de gênero e como ela é carregada e utilizada em cada quadro do vídeo para classificar o gênero dos objetos detectados. Além disso, eles mencionam a função UI Dash box e a função draw Dash boxes, que são usadas para criar caixas delimitadoras e chamar a função classificadora de gênero.

  • 00:45:00 Nesta seção, o apresentador explica como usar o modelo de classificação de gênero para detectar se um rosto pertence a um homem ou a uma mulher. Depois de detectar a face, apenas as coordenadas da caixa delimitadora são passadas para o modelo de classificação de gênero. O modelo então prevê se o rosto pertence a um homem ou a uma mulher, e o rótulo é adicionado acima da caixa delimitadora de acordo. O apresentador então explica a função count, que usa um dicionário chamado Foundry-classes para armazenar o número de faces detectadas no quadro. A contagem é exibida na interface do usuário acima da parte superior do vídeo ou imagem.

  • 00:50:00 Nesta seção, o palestrante explica que a contagem de quantos rostos foram detectados no quadro atual é armazenada no dicionário da classe Foundry na classe FaceDetails. O dicionário contém dois valores, a variável chave que contém "face" e a variável value que contém quantas faces foram detectadas no quadro atual. O alto-falante usa a função de contagem para mostrar quantos rostos foram detectados em cada quadro e atribui um ID exclusivo a cada rosto detectado usando deepsort.update. O falante também cria uma classe geral, uma classe de classificação e uma classe de perigo. As detecções do modelo são testadas em vários vídeos de demonstração e o palestrante mostra os resultados das detecções em cada quadro.
 

Detecção de semáforos e reconhecimento de cores usando YOLOv8 | Tutorial de detecção de objetos personalizados



Detecção de semáforos e reconhecimento de cores usando YOLOv8 | Tutorial de detecção de objetos personalizados

O tutorial em vídeo "Detecção de semáforos e reconhecimento de cores usando YOLOv8" explica as etapas para criar um modelo de detecção de semáforos e reconhecimento de cores usando o Ultralytics YOLOv8 web pro. Abrange o conjunto de dados de semáforos, aumento de dados, instalação de bibliotecas necessárias, ajuste fino do modelo YOLOv8 e teste do modelo em vários vídeos. O apresentador destaca a importância da instalação de todas as bibliotecas necessárias, e os resultados dos testes do modelo em vídeos demonstram sua precisão na detecção e reconhecimento de semáforos de várias cores.

  • Na seção 00:00:00 , o tutorial aborda o conjunto de dados de semáforos que eles usarão para o projeto, que consiste em cerca de 1.000 imagens com três classes diferentes de semáforos: verde, vermelho e amarelo. Eles mostram exemplos de cada rótulo e explicam como aplicaram o aumento de dados para aumentar o tamanho de seu conjunto de dados, já que não tinham imagens suficientes em seu conjunto de dados de treinamento. O vídeo mostra como exportar o conjunto de dados do RoboFlow para o notebook Google Colab e também apresenta o produto recém-lançado, Expense, que pode ajudar a treinar, implantar e monitorar modelos, entre outros recursos.

  • 00:05:00 Nesta seção, o YouTuber explica as etapas iniciais do processo de implementação para criar um modelo de detecção de semáforo e reconhecimento de cores usando o ultralytics YOLOv8 web pro. A primeira etapa envolve a importação de todas as bibliotecas necessárias, como OS e glob, que são usadas para navegar por diferentes caminhos de arquivo e plotar imagens de entrada e saída. Em seguida, eles verificam a presença de uma GPU e instalam todas as bibliotecas necessárias usando o pip. Por fim, eles clonam o repositório GitHub do ultralytics e o definem como o diretório atual antes de instalar as bibliotecas necessárias restantes. O vídeo enfatiza a importância de instalar todas as bibliotecas necessárias para evitar erros de script posteriormente.

  • 00:10:00 Nesta seção do vídeo, o apresentador demonstra as etapas para treinar e ajustar um modelo YOLO V8 em um conjunto de dados de semáforo usando o Google Colab. Depois de definir a pasta do conjunto de dados como o diretório atual, o modelo é treinado na caixa Ade para 80 caixas e os resultados mostram que a precisão média média com IOU50s para todas as classes é de 98,3%. A matriz de confusão é então apresentada, mostrando que o modelo classificou as luzes verdes, vermelhas e amarelas com precisão para 96,7%, 97,4% e 95,5% das vezes, respectivamente. O apresentador também observa que a perda está diminuindo continuamente, e o modelo pode ser melhorado treinando-o em um número maior de épocas. Finalmente, os melhores pesos do modelo são validados usando as imagens de validação.

  • 00:15:00 Nesta seção, o palestrante discute os resultados do teste do modelo YOLOv8 em vários vídeos, incluindo um vídeo de demonstração de semáforos. O modelo é capaz de detectar semáforos com precisão e atribuir rótulos com base na cor da luz, com uma cor de caixa delimitadora que corresponde à cor da luz. O palestrante mostra exemplos do modelo detectando semáforos vermelho, verde e amarelo, com o rótulo apropriado e a cor da caixa delimitadora para cada um. Os resultados do modelo em diferentes vídeos demonstram sua precisão na detecção e reconhecimento de semáforos de várias cores.
 

Análise e previsão de rotatividade de clientes usando ANN | Tutorial de Deep Learning (Tensorflow, Keras e Python)



Análise e previsão de rotatividade de clientes usando ANN | Tutorial de Deep Learning (Tensorflow, Keras e Python)

O vídeo do YouTube intitulado "Customer Churn Analysis and Prediction using ANN | Deep Learning Tutorial (Tensorflow, Keras & Python)" demonstra o uso de redes neurais artificiais para prever a rotatividade de clientes usando um conjunto de dados do Kaggle. O vídeo abrange várias etapas envolvidas na preparação dos dados, como limpeza de dados, codificação de recursos categóricos e dimensionamento dos valores em colunas. O alto-falante então cria uma rede neural com uma única camada oculta de 20 neurônios e uma função de ativação sigmoide enquanto define as camadas de entrada e saída e um otimizador com uma função binária de perda de entropia cruzada. A precisão alcançada e o relatório de classificação usando a biblioteca Scikit-learn são exibidos, com os valores previstos sendo convertidos na forma 0 ou 1 para mostrar uma precisão de 0,78.

  • 00:00:00 Nesta seção, o YouTuber apresenta o tema rotatividade de clientes e explica como as redes neurais artificiais podem ser usadas para prevê-la. Eles usarão um conjunto de dados do Kaggle e do Jupyter Notebook para realizar análise exploratória e limpeza de dados, seguidos de disputa de dados, teste de treinamento e divisão e, eventualmente, prever a rotatividade de clientes usando uma rede neural artificial. Eles começam importando as bibliotecas necessárias, como Pandas e NumPy, e depois carregam e analisam o conjunto de dados, eliminando a coluna de ID do cliente, pois não é útil para prever a rotatividade do cliente.

  • 00:05:00 Nesta seção do vídeo, o palestrante discute o processo de verificação dos tipos de dados e identificação de quaisquer características categóricas. O palestrante descobre que a coluna "taxas totais" está aparecendo como uma variável categórica, embora devesse ser um valor flutuante ou inteiro. Para corrigir esse problema, o alto-falante converte a coluna em um número inteiro. Eles também encontram um erro de espaço vazio na posição 488 e o resolvem usando errors = "coerce" para ignorar o erro. Por fim, o locutor verifica se não há valores nas linhas e planeja eliminá-los conforme necessário.

  • 00:10:00 Nesta seção, o palestrante discute o processo de eliminação de linhas vazias das colunas de cobranças totais usando Python. Inicialmente, o locutor identifica o número de linhas vazias na coluna de cobranças totais e aplica pd.notnull() para removê-las. Depois de descartar as linhas, o locutor verifica o número de linhas restantes para garantir que corresponda ao número esperado. Posteriormente, o alto-falante converte a coluna de cobranças totais em um tipo de dado numérico usando pd.to_numeric(). O alto-falante identifica o erro de não salvar a conversão do tipo de dados e o ajusta.

  • 00:15:00 Nesta seção do vídeo, o apresentador realiza uma análise exploratória de dados de rotatividade de clientes. Eles convertem a coluna "taxas totais" para o tipo flutuante e verificam os valores usando visualizações. Em seguida, traçam um histograma para ver quantos clientes leais permanecem (não abandonam) com base em uma duração de 10 meses e codificam com cores os pontos de dados que indicam deixar os clientes em verde e aqueles que permanecem em vermelho.

  • 00:20:00 Nesta seção, o palestrante discute a modificação de instruções para encontrar os valores exclusivos em cada coluna e a adição de nomes de colunas antes dos valores exclusivos. O palestrante também fala sobre encontrar todas as colunas com variáveis categóricas e convertê-las em números inteiros ou flutuantes. Eles então definem uma função para juntar todas essas etapas e serem capazes de imprimir os valores categóricos em qualquer dataframe.

  • 00:25:00 Nesta seção do vídeo, o palestrante demonstra como usar uma função para imprimir valores categóricos ou valores de tipo de dados de objeto para qualquer quadro de dados inserido nela. Eles então modificam seu quadro de dados convertendo uma coluna em um tipo de dados float e removendo-o. O alto-falante substitui "sem serviço de internet" e "sem serviço de telefone" por "não" usando a função substituir e define uma coluna sim-não onde substitui todas as variáveis sim e não por 1 e 0, respectivamente, para converter valores categóricos em valores numéricos, que são mais fáceis para os modelos de aprendizado de máquina entenderem.

  • 00:30:00 Nesta seção, o palestrante discute as etapas envolvidas na preparação dos dados para aprendizado de máquina. Eles demonstram como dividir o conjunto de dados em conjuntos de treinamento e teste e como codificar recursos categóricos substituindo "feminino" por 1 e "masculino" por 0. O palestrante usa TensorFlow e Keras para criar uma rede neural com uma única camada oculta de 20 neurônios e uma função de ativação sigmóide. A camada de entrada possui 27 feições e a camada de saída é definida.

  • 00:35:00 Nesta seção do vídeo, o apresentador discute como converter dados de texto em valores inteiros usando get dummies para preparar os dados para modelos de aprendizado de máquina. O apresentador mostra como gerar valores fictícios para variáveis como serviço de internet e contrato e, em seguida, usa min max escalar para dimensionar os valores nas colunas entre 0 e 1. O objetivo do dimensionamento é trazer os valores nas colunas entre 0 e 1 para que o modelo de aprendizado de máquina possa entender e interpretar os dados com precisão.

  • 00:40:00 Nesta seção, o palestrante discute como definir a camada de entrada, a camada de saída e o otimizador para análise e previsão de rotatividade de clientes usando uma rede neural artificial. Ele remove a camada de entrada desnecessária e define a camada de saída composta por um ou zero com uma função de ativação sigmoide. Ele observa que a função ReLU pode ser usada na camada oculta para problemas de classificação, mas não na camada de saída. O otimizador é definido com uma função binária de perda de entropia cruzada e a precisão é verificada com uma compilação de modelo de 100 épocas. Por fim, ele exibe a precisão alcançada e o relatório de classificação usando a biblioteca Scikit-learn.

  • 00:45:00 Nesta seção, o palestrante explica como eles converteram os valores previstos, que estavam em uma matriz bidimensional e variavam de 0 a 1, na forma 0 ou 1. Eles fizeram isso usando um loop for, informando que se um valor fosse maior que 0,5, seria considerado 1, e se fosse menor que 0,5, seria considerado 0. Após converter os valores, o locutor imprimia a classificação relatório, que mostra uma precisão de 0,78. O tutorial termina com o palestrante agradecendo aos espectadores por assistirem e convidando-os a se inscreverem no canal.
Razão: