Discusión sobre el artículo "Neuroredes profundas (Parte VI). Conjunto de clasificadores de redes neuronales: bagging" - página 3

 

He visto diferentes vídeos de elmNN, la idea es que el modelo añade gradualmente nuevas neuronas ocultas una a una, calculando sus pesos con fórmulas especiales. Una neurona con una capa oculta puede describir una función de cualquier complejidad, por lo que permite que el algoritmo utilice muchas neuronas en la capa oculta: puede añadirlas hasta que alcance un error = 0. Y para luchar contra el sobreajuste, el número máximo de neuronas debe reducirse.

Y para luchar contra el sobreajuste, el número máximo de neuronas debe reducirse.

 

He aquí otra idea sobre la creación de un conjunto.

He observado que los modelos con los mejores resultados combinados en un conjunto no dan los mejores resultados.
En un experimento generé cientos de modelos e intenté encontrar el mejor conjunto buscando sus combinaciones. Como resultado, esos "mejores" conjuntos a menudo contenían modelos bastante débiles, y los intentos de eliminar esos modelos débiles o sustituirlos sólo empeoraban el resultado.
Ahora yo, por ejemplo, primero encuentro el mejor modelo que da el mejor resultado. Luego busco el segundo modelo, que en conjunto con el primero dará un resultado aún mejor, y el resultado de este segundo modelo (uno sin conjunto) no me interesa. Entonces añado un tercer modelo, que en conjunto con los dos primeros dará un resultado aún mejor. Etc. Es decir, no me interesa el resultado de un modelo cuando está solo, me interesa cuánto mejorará el conjunto. Es como el bousting.

 
Dr. Trader:

Aquí tienes otra idea de conjunto.

Me he dado cuenta de que los modelos con los mejores resultados combinados en un conjunto no dan los mejores resultados.
En un experimento generé cientos de modelos e intenté encontrar el mejor conjunto buscando sus combinaciones. Como resultado, esos "mejores" conjuntos a menudo contenían modelos bastante débiles, y los intentos de eliminar esos modelos débiles o sustituirlos sólo empeoraban el resultado.
Ahora yo, por ejemplo, primero encuentro el mejor modelo que da el mejor resultado. Luego busco el segundo modelo, que en conjunto con el primero dará un resultado aún mejor, y el resultado de este segundo modelo (uno sin conjunto) no me interesa. Entonces añado un tercer modelo, que en conjunto con los dos primeros dará un resultado aún mejor. Etc. Es decir, no me interesa el resultado de un modelo cuando está solo, me interesa cuánto mejorará el conjunto. Es como el bousting.

Es una opción interesante. ¿Qué crees que el resultado en un conjunto de este tipo es como un promedio?
Pensé que usted escribió que usted está haciendo la regresión - sólo un promedio va a hacer, la votación está fuera.
 

Estoy promediando, sí.

 
Me pregunto cuál es la puntuación prevista para el delantero.
 
Виктор:
Me pregunto cuál es el resultado de la predicción sobre el delantero.

¿Cuál es el problema?

Hay cotizaciones, scripts. Repite los cálculos desplazando el inicio del conjunto 500-1000 barras y obtén el resultado que te interesa.

Según mis cálculos, después de entrenar el conjunto con los parámetros óptimos, al menos las 750 barras siguientes dan una buena calidad de clasificación. Como referencia, 500 barras de M15 equivalen a una semana. El reentrenamiento/reoptimización tarda unos 20-30 minutos (depende del hardware y de la versión de R).

En el artículo anterior se ofrece un ejemplo de una prueba de este tipo .

Mucha suerte

 
Vladimir Perervenko:

¿Cuál es el problema?

Hay cotizaciones, scripts. Repite los cálculos desplazando el inicio del conjunto 500-1000 compases y obtendrás el resultado que te interesa.

Según mis cálculos, después de entrenar el conjunto con los parámetros óptimos, al menos las 750 barras siguientes dan una buena calidad de clasificación. Como referencia, 500 barras de M15 equivalen a una semana. El reentrenamiento/reoptimización tarda unos 20-30 minutos (depende del hardware y de la versión de R).

En el artículo anterior se ofrece un ejemplo de este tipo de prueba .

Suerte

Tienes incrementos ZigZag como maestro. Una función con muchas zonas monótonas. No se trata de incrementos de beneficios. Es por eso que el 70% de las direcciones correctamente adivinadas no dan una comprensión de la rentabilidad y hay que probar en las cotizaciones.
 
Виктор:
Tienes como maestro los incrementos en ZigZag. Una función con muchas zonas monótonas. Estos no son incrementos de rentabilidad. Es por eso que el 70% de las direcciones correctamente adivinadas no dan una comprensión de la rentabilidad y usted necesita probar en las cotizaciones.

Así es. И ?

 
Teniendo en cuenta las realidades del mercado (diferenciales, comisiones, recotizaciones...), la precisión de una clasificación con ZigZag como objetivo debería superar ampliamente el 80%.
 
Belford:
Teniendo en cuenta las realidades del mercado (diferenciales, comisiones, recotizaciones...), la precisión de la clasificación con ZigZag como objetivo debería ser normalmente muy superior al 80%.

¿Cómo ha determinado/calculado esta cifra? Si no es un secreto, por supuesto.