Discusión sobre el artículo "Interpretación de modelos: Una comprensión más profunda de los modelos de aprendizaje automático"

Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
Artículo publicado Interpretación de modelos: Una comprensión más profunda de los modelos de aprendizaje automático:
El aprendizaje automático es un campo desafiante y gratificante para cualquiera, independientemente de la experiencia que tenga. En este artículo, nos sumergiremos en el funcionamiento interno de los modelos creados, exploraremos el complejo mundo de las funciones, las predicciones y las soluciones eficientes, y comprenderemos claramente la interpretación de los modelos. Asimismo, aprenderemos el arte de hacer concesiones, mejorar las predicciones, clasificar la importancia de los parámetros y tomar decisiones sólidas. Este artículo le ayudará a mejorar el rendimiento de los modelos de aprendizaje automático y a sacar más partido de sus metodologías.
En este artículo, nuestro objetivo será utilizar el modelo de árbol con gradiente reforzado (gradient boosted tree model) disponible en la biblioteca CatBoost Python para realizar análisis de regresión de precios. No obstante, desde el principio surge un problema digno de mención que exige un examen más detenido del modelo. Antes de profundizar en la aplicación de las técnicas de explicación de la "caja negra" a nuestro modelo, deberemos reconocer las limitaciones de nuestro modelo de "caja negra" y la razón de ser del bloque de explicación de la misma (explaniers) en este contexto.
Los árboles con gradiente reforzado muestran un buen rendimiento en tareas de clasificación. Sin embargo, muestran claras limitaciones al aplicarse a problemas específicos de regresión de series temporales. Estos árboles, pertenecientes a la familia de los modelos de aprendizaje automático, clasifican los datos de entrada en grupos según el valor objetivo. Posteriormente, el algoritmo calcula el valor objetivo medio dentro de cada grupo y usa estas medias de grupo para la predicción. Cabe destacar que estos promedios de grupo establecidos durante el entrenamiento, permanecen invariables hasta que se realiza un nuevo entrenamiento. De esta naturaleza fija surge una desventaja crítica, ya que los árboles con gradiente reforzado suelen tener dificultades para extrapolar tendencias de forma eficiente. Cuando el modelo encuentra valores de entrada fuera del dominio de aprendizaje, tiende a hacer predicciones repetidas, basándose en valores medios derivados de grupos conocidos, que pueden no reflejar con precisión la tendencia básica fuera del rango de aprendizaje observado.
Además, el modelo asume que valores similares de las características conducirán a valores similares de los objetivos, lo cual resulta contrario a nuestra experiencia colectiva de negociación con instrumentos financieros. En los mercados financieros, los patrones de precios pueden mostrar semejanzas, aunque terminen en puntos diferentes. Esta discrepancia cuestiona el supuesto del modelo de que el proceso generativo produce datos que entran en grupos homogéneos. Por ello, la violación de estos supuestos provocará un desplazamiento en nuestro modelo.
Para corroborar dichas observaciones, haremos una demostración para los lectores que no hayan observado el fenómeno por sí mismos. Nuestro objetivo será ofrecer una comprensión global a todos los lectores.
Autor: Gamuchirai Zororo Ndawana