Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
Artículo publicado Métodos de conjunto para mejorar las tareas de clasificación en MQL5:
Los conjuntos de clasificación que se analizan en este artículo funcionan bajo supuestos específicos sobre los modelos que los componen. En primer lugar, se supone que estos modelos se entrenan con datos con objetivos de clase mutuamente excluyentes y exhaustivos, lo que garantiza que cada instancia pertenezca exactamente a una clase. Cuando se requiere una opción «ninguna de las anteriores», debe tratarse como una clase independiente o gestionarse mediante un método de combinación numérica con un umbral de pertenencia definido. Además, cuando se les proporciona un vector de entrada de predictores, se espera que los modelos de componentes produzcan N salidas, donde N representa el número de clases. Estos resultados pueden ser probabilidades o puntuaciones de confianza que indican la probabilidad de pertenencia a cada una de las clases. También podrían ser decisiones binarias, en las que un resultado es 1.0 (verdadero) y los demás son 0.0 (falso), o los resultados del modelo podrían ser clasificaciones enteras del 1 al N, que reflejan la probabilidad relativa de pertenencia a una clase.
Algunos de los métodos de conjunto que veremos se benefician enormemente de los clasificadores de componentes que producen resultados clasificados. Los modelos capaces de estimar con precisión las probabilidades de pertenencia a una clase suelen ser muy valiosos, pero existe un riesgo significativo al tratar los resultados como probabilidades cuando no lo son. Cuando hay dudas sobre lo que representan los resultados del modelo, puede ser beneficioso convertirlos en rangos. La utilidad de la información sobre la clasificación aumenta con el número de clases. En la clasificación binaria, los rangos no ofrecen información adicional, y su valor para los problemas de tres clases sigue siendo modesto. Sin embargo, en escenarios que involucran numerosas clases, la capacidad de interpretar las opciones secundarias de un modelo resulta muy beneficiosa, especialmente cuando las predicciones individuales están plagadas de incertidumbre. Por ejemplo, las máquinas de vectores de soporte (Support Vector Machines, SVM) podrían mejorarse para producir no solo clasificaciones binarias, sino también distancias de límite de decisión para cada clase, lo que ofrecería una mayor comprensión de la confianza en la predicción.
Autor: Francis Dube