Discusión sobre el artículo "Remuestreo avanzado y selección de modelos CatBoost con el método de fuerza bruta" - página 6
Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
No lo he visto en los libros de texto. Sé que se puede mejorar la calidad combinando buenos modelos. Pero no al revés :)
Pues eso es exactamente lo que hace el bosque. Todo lo bueno y lo malo. Y el bosque lo hicieron matemáticos y estadísticos muy guays.
Y probablemente intentaron combinar sólo los mejores modelos (si eso es lo que pensamos tú y yo).Pues eso es exactamente lo que hace el bosque. Todo lo bueno y lo malo. Y el bosque lo hicieron matemáticos y estadísticos muy guays.
Y probablemente trataron de combinar sólo los mejores modelos (si eso es lo que usted y yo estamos pensando).incluso el bosque tiene un límite razonable de 50-100 árboles, derivado empíricamente por alguien, ya no tiene sentido
agrupar los mejores es una práctica común. En kaggle a todo el mundo le gusta apilar potenciadores. Al menos el meme solía decir
incluso un bosque tiene un límite razonable de 50-100 árboles, deducido empíricamente por alguien, ya no tiene sentido.
Sólo tienes 50 variantes de agrupación. Estará bien promediarlas.
Sí. No tiene sentido. Se pierde tiempo, y la ganancia de calidad es muy pequeña.
Sólo tienes 50 variantes de agrupación. Estaría bien promediarlas.
Veo el sentido de agrupar sólo las mejores.
Es una práctica común acumular los mejores. En Kaggle, a todo el mundo le gusta acumular potenciadores. Al menos el meme solía ser
Supongo que no son los Breiman que se sientan en kaggle)))))) Así que están experimentando...
Veo bien que sólo se junten los mejores.
Probablemente no son los Breiman sentados en kaggle))))) Así que están experimentando...
estos son los que ganaron los concursos )
Pruebe ambos y compare el resultado en la muestra del examen.
No, no tiene sentido añadir modelos malos. Por definición.
En el entrenamiento, promediar es una cosa, pero promediar lo entrenado es otra. Aquí te estás disparando deliberadamente en el pie añadiendo malos. Introducen error y ya está. Y no hay tal práctica, no la he visto por ningún lado.
Además imagina el coste de obtener una señal de 50 modelos, el freno a las pruebas.No, no tiene sentido añadir modelos malos. Por definición.
En el entrenamiento, promediar es una cosa, pero promediar lo entrenado es otra. Aquí te estás disparando deliberadamente en el pie añadiendo malos. Introducen error y ya está.
No, no tiene sentido añadir modelos malos. Por definición.
En el entrenamiento, promediar es una cosa, pero promediar lo entrenado es otra. Aquí te estás disparando deliberadamente en el pie añadiendo malos. Introducen error y ya está. Y no hay tal práctica, no la he visto por ningún lado.
Además imagínate el coste de obtener una señal de 50 modelos, el freno a las pruebas.Eso es lo que pasa en cualquier bosque aleatorio.