Discusión sobre el artículo "Remuestreo avanzado y selección de modelos CatBoost con el método de fuerza bruta" - página 10
Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
¿Cuáles?
F1, MCC parece mejor.
Aquí está la lista completa
https://catboost.ai/docs/concepts/loss-functions-classification.html
F1, MCC parece ser mejor
aquí está la lista completa
https://catboost.ai/docs/concepts/loss-functions-classification.html
Una vez más.
Bueno, sí, a veces tiene sentido.
Un poco más de apilamiento. Sí, tiene sentido apilar. Todavía es una pregunta abierta en cuanto a cuánto.
¡Gran artículo y titánico trabajo!
Eliminado las etiquetas de pie después de que el cambio de dirección en el conjunto de datos antes de alimentarlos en el modelo de mezclas.
de la observación, más modelos dan resultados positivos.
resultados de la mejor prueba en tester y terminal:
En general, un hermoso trabajo. Lo utilicé para probar todos mis objetivos y los tiré a la basura)))
¡Gran artículo y un esfuerzo hercúleo!
Eliminado las etiquetas de pie después de que el cambio de dirección en el conjunto de datos antes de alimentarlos en el modelo de mezclas.
A partir de la observación, más modelos tienen un resultado positivo.
resultados de la mejor prueba en el probador y el terminal:
En general, hermoso trabajo. Con su ayuda he comprobado todos mis de destino y los tiró a la basura))).
sí, usted puede dejar caer antes de la agrupación
gracias por los comentarios :)
Z.Ы para que pueda probar todos los modelos a la vez, promediado. Juega. Parser para todos los modelos no ha hecho todavía, todavía en duda. Pero a veces un conjunto de varios modelos realmente mejora.
ZYZY. usted puede hacer una enumeración de diferentes combinaciones de modelos entrenados por la misma métrica R2, como un desarrollo del tema. Luego quédate con el mejor ensemble. Incluso es posible mediante genética, si hay muchos modelos.Tomé EURUSD, H1 datos de 2015 a 2020 y lo hice dividir en tres conjuntos:
He comprobado dos veces mi código y sin embargo podría haber hecho algo mal. De todos modos puede que tenga alguna idea sobre los resultados. Saludos cordiales, Rasoul
Tomé EURUSD, H1 datos de 2015 a 2020 y lo dividió en tres conjuntos:
He comprobado dos veces mi código y sin embargo podría haber hecho algo mal. De todos modos usted puede tener alguna idea acerca de los resultados. Saludos cordiales, Rasoul
¿Pueden decirme cómo puedo cargar mis datos a través de un archivo csv?
Lo he intentado de esta forma, pero no carga.
El formato del archivo es:
hora,cierre
2020,11,15,1.3587
2020,11,16,1.3472
¿Puede decirme cómo puedo cargar mis datos mediante un archivo csv?
pr = pd.read_csv('pr.csv', sep=';')es decir, este es un ejemplo de cargar datos desde el terminal, guardarlos en un archivo. Y luego se puede utilizar en colab
Hola, Rasoul. Trate de reducir el tamaño del conjunto de entrenamiento. Puede depender de diferentes configuraciones, pero el truco clave es que a menor tamaño del conjunto de entrenamiento, mejor generalización sobre nuevos datos. En el próximo artículo intentaré explicar este efecto.
Eso es bueno. Sería bueno ver en el artículo una observación sobre el alcance de la aplicabilidad de esta tesis - en particular, a diferentes métodos de IO. Por alguna razón recomiendan 70/30 para NS. Y lógicamente, en mi humilde opinión, 50/50 debería dar resultados más estables.
Esto está bien. Sería bueno ver un comentario en el artículo sobre el alcance de la aplicabilidad de esta tesis - en particular, a los diferentes métodos de MO. Por alguna razón se recomienda 70/30 para NS. Y lógicamente, en mi humilde opinión, 50/50 debería dar resultados más estables.
Hay aprendizaje activo y pasivo. El aprendizaje pasivo consiste en marcar manualmente los datos y formarse con ellos, en este caso debería haber muchos datos, pero existe el problema de marcarlos correctamente. Es decir, el "profesor" tiene que marcar los datos para que, convencionalmente, procedan de la misma distribución y generalicen bien. En este sentido, da casi igual la proporción de aprendices que pruebe. No te aporta casi nada, es sólo una comprobación del modelo, una comprobación de lo bien que has etiquetado los datos manualmente.
En el aprendizaje activo, el modelo aprende a marcar los datos de forma óptima. El artículo es sólo un caso de partición mediante GMM. Es decir, se utiliza tanto el aprendizaje con y sin profesor. En este caso, el modelo aprende a aprender sobre pequeños datos particionados y tiene que particionar él mismo los datos restantes de forma óptima. Se trata de un enfoque relativamente nuevo (de alrededor de 2017). Y quiero verlo con más detalle en un artículo posterior.
Demasiados "datos" en las frases, pido disculpas por la tautología )