Uso de redes neuronales en el comercio - página 14

 
TheXpert:
Ah, eso es fácil. En cuanto empieza a aprender, es suficiente.


Ahora demostraré la nueva red. Con todas las pruebas.
 
TheXpert:
Ah, es fácil. En cuanto empieza a aprender, es suficiente.

El Perseptron de Reshetov también aprende algo, pero obviamente no es suficiente....

En mi opinión, para hablar de suficiencia hay que aprender de alguna manera a analizar los resultados del entrenamiento, sobre el OV, en función del periodo de entrenamiento (número de ejemplos de entrada) y el OOS por sí solo no es una ayuda en este sentido. Llevo mucho tiempo tropezando con este lugar, siento que la verdad está en algún lugar cercano, pero no puedo captarla.

 
Figar0:

Llevo mucho tiempo dando tumbos en este lugar, siento que la verdad está en algún lugar cercano, pero no consigo asirla.

Pues no sé, eso es lo elemental del asunto.
 
Figar0:

El Perseptron de Reshetov también aprende algo, pero obviamente no es suficiente....

En mi opinión, para hablar de suficiencia hay que aprender de alguna manera a analizar los resultados del entrenamiento, en OV, en función del periodo de entrenamiento (número de ejemplos de entrada) y el OOS por sí solo no es una ayuda en este sentido. Llevo mucho tiempo tropezando con este lugar, siento que la verdad está en algún lugar cercano, pero no puedo captarla.


Parece que lo he entendido. Optimización en una muestra grande. Consigo que el drawdown sea inferior al beneficio neto. Luego reduzco la muestra y añado una última neurona de refinamiento. Podría estar equivocado. Voy a poner un ejemplo.
 

He utilizado varios enfoques en mi investigación:

1) dar a la red una entrada de la izquierda, bien fuera de lo normal, como un cambio diario en el tiempo del sol, y enseñarle a operar con esta entrada, por ejemplo, durante un mes. Aquí la red en su forma pura debe demostrar su capacidad de recuerdo/seguimiento. Luego dio las entradas normales. Intenté analizar la diferencia entre los resultados del entrenamiento de alguna manera.

2) Se ha intentado analizar el resultado del entrenamiento en función del aumento del tamaño de la muestra de entrenamiento. En casi todas las redes y configuraciones, hasta un determinado momento se produce un aumento del resultado, después suele producirse un estancamiento, y si se sigue aumentando el número de muestras de entrada se pueden obtener peores resultados.

Con estos resultados de mi investigación estoy tratando de sacar conclusiones sobre la suficiencia de la red y el periodo de entrenamiento, y si hay alguna relación entre ellos. Por eso me metí en este hilo. Tal vez alguien sugiera algo.

 
Existe un error cuadrático medio acumulado. Se puede comparar para diferentes redes. Y utilizarlo para determinar si aprende algo.
 
TheXpert:
Existe un error cuadrático medio acumulado. Se puede comparar para diferentes redes. Y utilizarlo para determinar si aprende algo.

¿Error de qué?
 
grell:
¿Error de qué?
Salida, por supuesto.
 
TheXpert:
Salida, por supuesto.


Y si no se prevé la salida, ¿cómo?
 
grell:

Lo hice a tientas. Optimización en una muestra grande. Consigo que el drawdown sea inferior al beneficio neto. Luego reduzco la muestra y añado una última neurona de refinamiento. Podría estar equivocado. Voy a poner un ejemplo.
Estaría bien, por ejemplo me encantaría ver cómo funciona el Expert Advisor exactamente en el periodo de entrenamiento que consideras exitoso.
Razón de la queja: