Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
Ah, eso es fácil. En cuanto empieza a aprender, es suficiente.
Ahora demostraré la nueva red. Con todas las pruebas.
Ah, es fácil. En cuanto empieza a aprender, es suficiente.
El Perseptron de Reshetov también aprende algo, pero obviamente no es suficiente....
En mi opinión, para hablar de suficiencia hay que aprender de alguna manera a analizar los resultados del entrenamiento, sobre el OV, en función del periodo de entrenamiento (número de ejemplos de entrada) y el OOS por sí solo no es una ayuda en este sentido. Llevo mucho tiempo tropezando con este lugar, siento que la verdad está en algún lugar cercano, pero no puedo captarla.
Llevo mucho tiempo dando tumbos en este lugar, siento que la verdad está en algún lugar cercano, pero no consigo asirla.
El Perseptron de Reshetov también aprende algo, pero obviamente no es suficiente....
En mi opinión, para hablar de suficiencia hay que aprender de alguna manera a analizar los resultados del entrenamiento, en OV, en función del periodo de entrenamiento (número de ejemplos de entrada) y el OOS por sí solo no es una ayuda en este sentido. Llevo mucho tiempo tropezando con este lugar, siento que la verdad está en algún lugar cercano, pero no puedo captarla.
Parece que lo he entendido. Optimización en una muestra grande. Consigo que el drawdown sea inferior al beneficio neto. Luego reduzco la muestra y añado una última neurona de refinamiento. Podría estar equivocado. Voy a poner un ejemplo.
He utilizado varios enfoques en mi investigación:
1) dar a la red una entrada de la izquierda, bien fuera de lo normal, como un cambio diario en el tiempo del sol, y enseñarle a operar con esta entrada, por ejemplo, durante un mes. Aquí la red en su forma pura debe demostrar su capacidad de recuerdo/seguimiento. Luego dio las entradas normales. Intenté analizar la diferencia entre los resultados del entrenamiento de alguna manera.
2) Se ha intentado analizar el resultado del entrenamiento en función del aumento del tamaño de la muestra de entrenamiento. En casi todas las redes y configuraciones, hasta un determinado momento se produce un aumento del resultado, después suele producirse un estancamiento, y si se sigue aumentando el número de muestras de entrada se pueden obtener peores resultados.
Con estos resultados de mi investigación estoy tratando de sacar conclusiones sobre la suficiencia de la red y el periodo de entrenamiento, y si hay alguna relación entre ellos. Por eso me metí en este hilo. Tal vez alguien sugiera algo.
Existe un error cuadrático medio acumulado. Se puede comparar para diferentes redes. Y utilizarlo para determinar si aprende algo.
¿Error de qué?
¿Error de qué?
Salida, por supuesto.
Y si no se prevé la salida, ¿cómo?
Lo hice a tientas. Optimización en una muestra grande. Consigo que el drawdown sea inferior al beneficio neto. Luego reduzco la muestra y añado una última neurona de refinamiento. Podría estar equivocado. Voy a poner un ejemplo.