Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
YOLOv8 | Detección de objetos | Segmentación | Tutorial Completo Google Colab| Solución de un solo clic
YOLOv8 | Detección de objetos | Segmentación | Tutorial Completo Google Colab| Solución de un solo clic
El video tutorial demuestra cómo implementar YOLOv8 usando Google Colab para la detección y segmentación de objetos. Se guía a los usuarios a través de los pasos para clonar el repositorio de GitHub, instalar paquetes, configurar directorios e importar videos de demostración desde Google Drive para realizar pruebas. También se muestra al usuario cómo ejecutar el modelo YOLOv8 para la detección de objetos en un video de demostración, cómo solucionar cualquier problema de espacio y cómo guardar y descargar el video de salida. El tutorial también cubre cómo realizar la segmentación con YOLOv8 y enfatiza la importancia de eliminar los archivos comprimidos anteriores antes de continuar. Se proporciona un enlace para descargar el archivo del cuaderno y se anima a los espectadores a hacer preguntas en la sección de comentarios.
Reconocimiento de emociones faciales con IA | Identificación de expresiones faciales con V7
Reconocimiento de emociones faciales con IA | Identificación de expresiones faciales con V7
Los tutoriales en video analizan el proceso de uso de la plataforma V7 para crear conjuntos de datos anotados para el reconocimiento de emociones faciales de IA. Los tutoriales cubren varios aspectos del proceso, incluida la creación de un conjunto de datos, la anotación de imágenes y videos para las emociones, la capacitación del modelo y la prueba en imágenes de muestra y cámaras web en vivo. La importancia del etiquetado preciso para el entrenamiento efectivo de los modelos de IA se enfatiza a lo largo de los tutoriales y se destacan las características de la plataforma V7 y los múltiples modelos. Los tutoriales brindan ejemplos completos del proceso de anotación para identificar expresiones faciales mediante IA.
Detección y seguimiento de jugadores de fútbol y balones en tiempo real con YOLOv8 Live :Object Tracking YOLOv8
Detección y seguimiento de jugadores de fútbol y balones en tiempo real con YOLOv8 Live :Object Tracking YOLOv8
En este videotutorial de YouTube, el presentador demuestra el proceso de creación de un conjunto de datos de detección y seguimiento de un jugador de fútbol y un balón mediante Roboflow. El presentador recorre los pasos de carga y anotación de imágenes, preparación del conjunto de datos, capacitación del modelo, prueba en videos de muestra y cámara web en vivo, y modificación del código para mejorar el seguimiento. En general, el modelo YOLOv8 funciona bien, pero tiene algunas limitaciones para detectar fútbol en ciertos escenarios.
YOLOv8 y VGG16 para rostro, detección de género, conteo de rostros y seguimiento de personas | Conjunto de datos personalizado
YOLOv8 y VGG16 para rostro, detección de género, conteo de rostros y seguimiento de personas | Conjunto de datos personalizado
El video tutorial explica el proceso de detección de rostros, clasificación de género, conteo de rostros y seguimiento de personas utilizando los modelos YOLOv8 y VGG16. El tutorial cubre varios aspectos de la implementación y el entrenamiento de estos modelos, incluida la preparación de datos, el aumento de datos, el ajuste fino del modelo VGG16 previamente entrenado, el uso del aprendizaje de transferencia y el entrenamiento del modelo YOLOv8 para la detección de rostros. El presentador también explica cómo montar un Google Drive en una computadora portátil Google Colab, acceder y convertir conjuntos de datos de imágenes, descargar las bibliotecas requeridas e integrar el seguimiento de objetos usando deepsort. El tutorial proporciona explicaciones de código detalladas para dibujar cuadros delimitadores alrededor de objetos detectados, integrar el modelo de clasificación de género, contar la cantidad de rostros en un marco y asignar a cada rostro detectado una identificación única usando deepsort.update.
Detección de semáforos y reconocimiento de color con YOLOv8 | Tutorial de detección de objetos personalizados
Detección de semáforos y reconocimiento de color con YOLOv8 | Tutorial de detección de objetos personalizados
El video tutorial "Detección de semáforos y reconocimiento de colores con YOLOv8" explica los pasos para crear un modelo de detección de semáforos y reconocimiento de colores con Ultralytics YOLOv8 web pro. Cubre el conjunto de datos del semáforo, el aumento de datos, la instalación de las bibliotecas necesarias, el ajuste fino del modelo YOLOv8 y la prueba del modelo en varios videos. El presentador enfatiza la importancia de instalar todas las bibliotecas requeridas, y los resultados de probar el modelo en videos demuestran su precisión para detectar y reconocer semáforos de varios colores.
Demostración de seguimiento de vehículos y estimación de velocidad en el 2º Taller AI City Challenge en CVPR 2018
Demostración de seguimiento de vehículos y estimación de velocidad en el 2º Taller AI City Challenge en CVPR 2018
Nuestro equipo de la Universidad de Washington es el ganador de la Pista 1 (Análisis de Flujo de Tráfico) en el 2º Taller AI City Challenge en CVPR 2018.
Los conjuntos de datos del segundo AI City Challenge (2018) ya no están disponibles para el público. Sin embargo, aún puede acceder a los conjuntos de datos del 3.er AI City Challenge (2019) o participar en el último 4.º AI City Challenge en CVPR 2020.
Proporcionaron un nuevo conjunto de datos a escala de ciudad para el seguimiento de vehículos con varias cámaras, así como para la reidentificación basada en imágenes. También tenían un nuevo conjunto de datos para la detección de anomalías de tráfico. La escala de los conjuntos de datos y la cantidad de vehículos que se utilizan para la evaluación no tienen precedentes. El sitio web de AI City Challenges está en https://www.aicitychallenge.org/.
Código: https://github.com/zhengthomastang/2018AICity_TeamUW
Análisis y predicción de abandono de clientes mediante ANN| Tutorial de aprendizaje profundo (Tensorflow, Keras y Python)
Análisis y predicción de abandono de clientes mediante ANN| Tutorial de aprendizaje profundo (Tensorflow, Keras y Python)
El video de YouTube titulado "Análisis y predicción de abandono de clientes con ANN | Tutorial de aprendizaje profundo (Tensorflow, Keras y Python)" demuestra el uso de redes neuronales artificiales para predecir el abandono de clientes utilizando un conjunto de datos de Kaggle. El video cubre varios pasos involucrados en la preparación de los datos, como la limpieza de datos, la codificación de características categóricas y la escala de valores en columnas. Luego, el orador crea una red neuronal con una sola capa oculta de 20 neuronas y una función de activación sigmoidea mientras define las capas de entrada y salida y un optimizador con una función de pérdida de entropía cruzada binaria. Se muestran la precisión lograda y el informe de clasificación utilizando la biblioteca Scikit-learn, y los valores predichos se convierten en 0 o 1 para mostrar una precisión de 0,78.
Seguimiento de vehículos / Monitoreo de tráfico yolov5+deepsort
Seguimiento de vehículos / Monitoreo de tráfico yolov5+deepsort
Para todos viene aquí desde youtube o simplemente quiere usar mi repositorio para inferencia. Este es un proyecto muy antiguo solo para aprender CV cuando estaba en la escuela. Ha pasado mucho tiempo, así que olvidé todo lo que hice en este proyecto de juguetes. Edité desde este repositorio y agregué algunas líneas de código para algunas restricciones. Ustedes pueden usar ese repositorio para referencias. Gracias.
Las detecciones son generadas por YOLOv5 y se pasan al algoritmo Deep Sort que rastrea los objetos.
Código: https://github.com/duongcongnha/Vehicle-tracking
Demostración de seguimiento de vehículos y estimación de velocidad en el 2º Taller AI City Challenge en CVPR 2018
Demostración de seguimiento de vehículos y estimación de velocidad en el 2º Taller AI City Challenge en CVPR 2018
Nuestro equipo de la Universidad de Washington es el ganador de la Pista 1 (Análisis de Flujo de Tráfico) en el 2º Taller AI City Challenge en CVPR 2018.
Los conjuntos de datos del segundo AI City Challenge (2018) ya no están disponibles para el público. Sin embargo, aún puede acceder a los conjuntos de datos del 3.er AI City Challenge (2019) o participar en el último 4.º AI City Challenge en CVPR 2020.
Proporcionaron un nuevo conjunto de datos a escala de ciudad para el seguimiento de vehículos con varias cámaras, así como para la reidentificación basada en imágenes. También tenían un nuevo conjunto de datos para la detección de anomalías de tráfico. La escala de los conjuntos de datos y la cantidad de vehículos que se utilizan para la evaluación no tienen precedentes. El sitio web de AI City Challenges está en https://www.aicitychallenge.org/ .
Código: https://github.com/zhengthomastang/2018AICity_TeamUW
Seguimiento de objetos con Opencv y Python
Seguimiento de objetos con Opencv y Python
El video tutorial sobre el seguimiento de objetos con OpenCV y Python explica la diferencia entre la detección de objetos y el seguimiento de objetos y muestra cómo crear un archivo de seguimiento de objetos para un seguimiento eficiente. El video describe los archivos necesarios requeridos, como un video y un archivo de seguimiento de objetos, y muestra cómo codificar el archivo main.py para la visualización de video en tiempo real. El tutorial también cubre cómo eliminar pequeños elementos de la máscara y definir una región de interés para extraer una parte de la imagen para enfocar los vehículos. El video concluye explicando el proceso de rastreo de objetos y agregando identificaciones únicas a los objetos para contarlos correctamente. Sin embargo, el tutorial establece que el método no es perfecto, pero sirve como una excelente introducción al seguimiento de objetos, y se recomienda un curso más detallado sobre OpenCV y aprendizaje profundo.