Uso de redes neuronales en el comercio. - página 2

 
un error común es no incluir las medidas de "nivel" y "volumen" (volúmenes en los futuros)
 
Neutron писал(а) >> introducir la serie temporal ya diseccionada, es decir, no todas las barras, sino los posibles puntos clave

En general, no se recomienda interrumpir las series temporales, sobre todo las financieras: la información se pierde.....

 
StatBars писал(а) >>

Una función sigmoidal por sí misma no aplana la distribución... En mi opinión, es más importante resolver el problema de la estacionalidad de los datos durante el preprocesamiento.

Por cierto, la fórmula que me has dado es W=420, d=14, por lo que P>50400, ¿no crees que la muestra es demasiado grande?

No, ni la función singhmoide ni la hiperbólica igualan la distribución. Puede comprobarlo fácilmente trazando la distribución antes y después de aplicar la función. Aquí hay que aplicar métodos especiales.

En cuanto al "tamaño" de la muestra, es posible llegar a un compromiso. Por ejemplo, es posible, con una longitud menor de datos históricos disponibles, recomendar una interrupción temprana del entrenamiento, lo que permitirá evitar el efecto del reentrenamiento, pero las capacidades de clasificación de los NS en tal forma de entrenamiento, serán en cualquier caso inferiores a los NS entrenados en un historial suficientemente grande.

En mi experiencia (pequeña) y artículos el número de ejemplos en una muestra no depende como usted ofrece ...

Y, según mi experiencia, no hay ninguna contradicción: todo está de acuerdo con la teoría.

LeoV escribió >>

En general, no se recomienda interrumpir las series temporales, en particular las financieras, ya que la información se pierde.....

Debido a la complejidad del entrenamiento NS, siempre nos vemos obligados a encontrar un compromiso entre la complejidad arquitectónica y la potencia de cálculo. Con la complejidad límite de la arquitectura que utilizamos, naturalmente tenemos un límite en la dimensión límite de la entrada de NS, como consecuencia, podemos alimentar un vector no más largo que algunos (otros cien como máximo) a la entrada y tenemos que elegir entre la pérdida de datos y la cobertura de la historia. A veces, es importante abarcar lo máximo posible y comprender lo que se abarca en un tiempo razonable (en términos de IA).

 
Neutron писал(а) >> Debido a la complejidad del entrenamiento de la NS, siempre nos vemos obligados a encontrar un compromiso entre la complejidad arquitectónica y la potencia de cálculo . Con la complejidad límite de la arquitectura que utilizamos, tenemos naturalmente un límite en la dimensionalidad límite de la entrada NS, como consecuencia, podemos alimentar la entrada con un vector no más largo que algunos (otros cien como máximo) y tenemos que elegir entre la pérdida de datos y la cobertura de la historia. A veces, es importante abarcar más y comprender lo que se abarca en un tiempo razonable (en términos de IA).

No tiene sentido perseguir la complejidad de la arquitectura de una red neuronal, ya que 10-15 neuronas aprenderán fácilmente y sin problemas la historia de 1500-2000 bares, o incluso más. Pero cuanto mejor aprendan la historia, peor trabajarán en el futuro: llega el efecto del sobreentrenamiento. Es mucho más eficaz y productivo encontrar las entradas "correctas", que darán la información correcta a la SN sobre el movimiento del símbolo.

 

Leonid, no hay ningún problema con el reentrenamiento de la NS - es de no entender la esencia de lo que está pasando dentro de esta caja con un hermoso nombre y tres clavos en su interior. No tome una muestra de entrenamiento más corta que la mínima y no tendrá que decidir por instinto qué es mejor y qué es peor.

Sobre las entradas "correctas" estoy 100% de acuerdo contigo que es la clave del éxito - todo lo que se puede resolver para NS-ku - debe ser resuelto de forma independiente. Hay que dejar las cosas que la solución no tiene o que son injustificadamente difíciles. Por ejemplo, no tiene ningún sentido alimentar la entrada Zig-Zag. El comportamiento de NS en este caso es obvio - aprenderá lo que hay en la superficie - alternancia de signos de los hombros de ZZ, y no hay uso de tales datos de entrada.

 
Neutron писал(а) >>

Leonid, no hay ningún problema con el reentrenamiento de la NS - es de no entender la esencia de lo que está pasando dentro de esta caja con un hermoso nombre y tres clavos en su interior. No tomes una muestra de formación inferior a la mínima y no tendrás que decidir por intuición qué es mejor o peor.

También hay problemas con el muestreo: está claro que en Forex hay ciertas leyes de movimiento, que cambian con el tiempo. Por lo tanto, si la muestra es demasiado grande -la red no encontrará estas leyes de movimiento porque hay demasiadas y son demasiado diferentes, demasiado pequeñas-, se volverá a entrenar rápidamente. Y es imposible encontrar la fórmula exacta, por lo que aquí también depende del comerciante, no de la complejidad de la arquitectura NS.

 

Así es. ¡Directo al grano!

En realidad, si resolvemos el problema directamente, resulta que la longitud óptima de muestreo es P>(W^2)/d, y teniendo en cuenta la no estacionariedad de los procesos en el mercado, el óptimo es

P=(4-8)*(W^2)/d. De esto es de lo que hablas.

 
Neutron писал(а) >>

Esto es más o menos lo que ocurre: antes de la conversión, después, las fotos no son de la misma muestra, pero sin embargo lo han hecho muchas veces el efecto es el mismo...

 

Veo que está nivelado.

Pero no puede ser así si sólo influyes en la señal de entrada con una función como la sigmoidea y/o algo así. Lo más probable es que si ampliamos los ejes izquierdo y derecho del gráfico inferior en la distancia de la mitad de la última barra del histograma (para poder verla), el milagro desaparecerá y veremos una campana.

De lo contrario, se producirá un pinchazo en el análisis.

 
Neutron писал(а) >>

Veo que ahora está parejo.

Pero no puede ser así. Lo más probable es que si extendemos los ejes izquierdo y derecho en el gráfico inferior una vez y media más que la última barra del histograma (para poder verla), el milagro desaparecerá y veremos una campana.

Bueno, o bien hay un pinchazo en el análisis.

En las imágenes no están los datos normalizados y además de los diferentes datos, sólo di un ejemplo de lo que hice (como se ve en el resultado)

Y aquí está el script, puedes usarlo para ver cómo será la salida (pero no seas demasiado exigente con los datos de entrada - este script se hizo sólo como ejemplo...)

/Tipo 0 - normalización lineal, 1 - no lineal

Archivos adjuntos:
Razón de la queja: