FR Volatilidad H - página 10

 

No sé cómo detectar, sobre todo en una fase temprana, la aparición de la arbitrariedad.

La entrada de la red debe ser el N penúltimo segmento de la LB, y la salida debe ser el último segmento de la LB. Entonces, con una configuración adecuada de la red, una elección apropiada de la función de activación y un entrenamiento exitoso, si sólo se alimentan N últimos segmentos a la entrada, la red recuperará estos N y también el siguiente (es decir, el próximo). No hay nada que manipular en su dirección - es claro como es, pero el tamaño ...

Tal vez salga algo de ahí.

 
Yurixx:

No sé cómo detectar, sobre todo en una fase temprana, la aparición de la arbitrariedad.

La entrada de la red debe ser el N penúltimo segmento de la LB, y la salida debe ser el último segmento de la LB. Entonces, con una configuración adecuada de la red, con una elección adecuada de la función de activación, y con un entrenamiento exitoso, si sólo se alimentan N últimos segmentos a la entrada, la red recuperará estos N y el siguiente (es decir, el próximo) también. No hay nada que manipular en su dirección - es claro como es, pero el tamaño ...

Tal vez salga algo de ahí.


¿Y qué forma de zigzag es mejor, absoluta o relativa? ¿Y necesitará normalización? Creo que quiero una capa de Kohonen y la estrella de Grossberg. Aunque puede que me equivoque.
 
Vinin:
...creo que pide una capa Kohonen y una estrella Grossberg.

Y la Medalla de Honor).
Vinin,¿qué es una estrella Grossberg?

Yurixx, sugiere un diagrama de bloques NS para este caso, me gustaría pensar en ello.

 
Neutron:
Vinin:
...creo que la capa Kohonen y la estrella Grossberg se lo están buscando.

Y la Medalla de Honor :-)
Vinin,¿qué clase de estrella es esta?

Yurixx, sugiera un diagrama de bloques NS a su criterio para este caso, me gustaría pensarlo.


Es más o menos aquí http://ann.hotmail.ru/vs03.htm

Pero me repetiré (aunque ya no soy yo), sólo una cita:

Durante el entrenamiento de una red de contrapropagación, los vectores de entrada se asocian a los vectores de salida correspondientes, que pueden ser binarios o continuos. Tras el entrenamiento, la red genera señales de salida que corresponden a las señales de entrada. La generalidad de la red permite obtener la salida correcta cuando el vector de entrada está incompleto o distorsionado.
En el modo de aprendizaje, la señal de entrada se introduce en la red y los pesos se corrigen para que la red produzca la señal de salida deseada.
La capa Kohonen funciona según la regla de "el ganador se lo lleva todo". Para un vector de entrada dado, sólo una neurona de esta capa produce un uno lógico, todas las demás producen ceros. La salida de cada neurona Kohonen es sólo la suma de los elementos ponderados de las señales de entrada.
La salida de las neuronas de la capa de Grossberg es también una suma ponderada de las salidas de las neuronas de la capa de Kohonen. Pero cada neurona de la capa de Grossberg genera un peso que conecta esta neurona con la única neurona de Kohonen cuya salida es distinta de cero.
En la fase de preprocesamiento, las señales de entrada se normalizan para los vectores de entrada.
En la etapa de aprendizaje, la capa Kohonen clasifica los vectores de entrada en grupos de similares. Esto se hace ajustando los pesos de la capa Kohonen para que vectores de entrada similares activen la misma neurona de la capa. Es difícil predecir de antemano qué neurona será activada por una señal de entrada concreta, ya que la capa Kohonen aprende sin un maestro.
La tarea de la capa de Grossberg es entonces producir las salidas deseadas. El entrenamiento de la capa de Grossberg es un aprendizaje asistido por el profesor. Las salidas de las neuronas se calculan como en el funcionamiento normal. Después, cada peso sólo se corrige si está conectado a una neurona Kohonen que tenga una salida distinta de cero. La cantidad de corrección del peso es proporcional a la diferencia entre el peso y la salida deseada de la neurona de Grossberg.
En el modo de funcionamiento de la red se presenta la señal de entrada y se genera la señal de salida.
En el modelo de red de contrapropagación completa, es posible producir señales de salida a partir de señales de entrada y viceversa. Estas dos acciones corresponden a la propagación hacia delante y hacia atrás de las señales.

 
Vinin:
¿Y los zigzags de qué forma es mejor alimentarlos, absoluta o relativa? ¿Y será necesaria la normalización? Creo que pide la capa de Kohonen y la estrella de Grossberg. Aunque puede que me equivoque.

Neutrón:

Yurixx, sugiera a su criterio el diagrama de bloques NS para este caso, me gustaría pensar en ello.


No puedo ofrecer un diagrama de flujo. La historia de este pensamiento es la siguiente.

Al principio pensé que la NS debía constar de 2 capas: Kohonen y Grosberg. El problema era sólo que para kaga cada segmento puede ser cualquiera, desde 1 y ... Supongamos que quiero introducir N segmentos de WP y limitar el tamaño del sigmento de 1 a 50. Entonces el número de neuronas máximas en la capa de Kohonen (antes de la agrupación) es 50^N. Eso es mucho. Por eso estaba pensando en Renko. Con H=10, el tamaño del segmento similar de ZZ varía de 1 a 5. Son sólo 5^N neuronas, lo que ya es aceptable para valores pequeños de N. Y todos los segmentos mayores de 5H se pueden recortar con 5H.

A continuación, la capa de Kohonen reconoce el patrón y excita la neurona correspondiente. El último segmento de ZZ (no incluido en esta N) se introduce en la capa de Grosberg. La capa Grosberg contiene, por ejemplo, 100 neuronas, cada una de las cuales corresponde al tamaño del último segmento ZZ, de 1 a 100. Así, se excita una neurona de la capa de Grosberg. Durante el aprendizaje, el peso de la conexión desde la neurona excitada de Kohonen a la neurona excitada de la capa de Grosberg se incrementa en 1. Por lo tanto, no es una red de contrapropagación. Pero ese era mi "plan" :-))

Y entonces me di cuenta de que, tras el entrenamiento, al introducir WP, la capa de Grosberg se limitaba a mostrarme en la salida una función de distribución para el futuro segmento de WP. Eso es básicamente lo que pretendía. Sin embargo, aquí hay dos "peros".

1. Puedo construir una distribución de este tipo mucho más rápido y sin ninguna NS.

2. El historial de casi dos años de minucias contiene unas 630000 barras. Kagi ZZ con el parámetro H=10 tiene alrededor de 17400 segmentos en ese historial. Y el número de neuronas en la capa Kohonen con N=6 será de 15625, es decir, habrá una media de 1,1 valores experimentales para cada patrón. ¿Qué tipo de distribución es esa? :-)

Por lo tanto, la agrupación asociada a la transición a la partición renko es desastrosamente insuficiente. O bien tenemos que agrupar el PM utilizando la capa de Kohonen, o (lo que es más probable) pasar a ideas más constructivas.

PS

No me juzgues duramente por ser ingenuo. Mi experiencia con las redes es de 1,5 libros leídos y ninguna aplicación.

 

Sugiero que empecemos por la más sencilla. Dividamos ZZ en construcciones elementales formadas por un vértice. Normalicemos los lados por la longitud del primer vértice y mantengamos una cifra significativa después del punto decimal. En este caso tenemos 17400 construcciones, divididas (para el paso H=10) en 50/2H*10=25 grupos (aproximadamente) sobre la base de la "relación de aspecto". Es decir, en cada grupo tenemos varios centenares de patrones, ya son estadísticas.

Ahora sólo tenemos que escribirlo en NS y averiguar cómo depende la FR de la longitud de movimiento prevista (vector verde menos H) del valor del margen izquierdo. Excepto, colegas, que la NS no es realmente necesaria para este problema. ¿O me estoy perdiendo algo?

P.D. La figura de la derecha muestra la PD de la relación de aspecto ZZ en un vértice. Estas son las construcciones H=5,10,15 y 20 pips para el EURUSD (ticks). Parece que la idea de la normalización es sólida y permite reducir notablemente la dimensionalidad de los datos de entrada.

 
Neutron:

Queda por meter esto en NS y averiguar cómo la FR de la longitud de movimiento prevista (vector verde menos H) depende del valor del borde izquierdo. Excepto, colegas, que la NS no es realmente necesaria para este problema. ¿O me estoy perdiendo algo?

P.D. La figura de la derecha muestra el FR de la relación lateral ZZ en un vértice. es la construcción H=5,10,15 y 20 pips para EURUSD (ticks). Parece que la idea de la normalización es sólida y permite reducir notablemente la dimensionalidad de los datos de entrada.


Tampoco creo que la NS sea necesaria para eso. Y la opción de la normalización parece válida, no se me había ocurrido.
 

Neutrón

No puedo entender lo que has construido. La FR (función de distribución) debería ser un poco diferente https://ru.wikipedia.org/wiki/%D0%A0%D0%B0%D1%81%D0%BF%D1%80%D0%B5%D0%B4%D0%B5%D0%BB%D0%B5%D0%BD%D0%B8%D0%B5_%D0%B2%D0%B5%D1%80%D0%BE%D1%8F%D1%82%D0%BD%D0%BE%D1%81%D1%82%D0%B5%D0%B9

¿Tal vez sea una función de densidad de probabilidad? Si es así, ¿puede repetir, con un poco más de detalle, qué es lo que aparece en el gráfico de la derecha (qué hay en los ejes X e Y)

 

a Prival

Realizamos una serie de n cálculos (la longitud del lado derecho del Zig-Zag expresada en unidades de longitud del lado izquierdo) y obtenemos un conjunto de valores x1,...,xi,...,xn. Esta es la llamada muestra. Trazamos los valores xi de x en el eje de abscisas. Divida el eje x en intervalos iguales dx y cuente el número de cálculos nk que dan como resultado valores x que se encuentran en el intervalo xk+-1/2dx (aquí xk es la coordenada del centro del intervalo en el eje x). En cada intervalo, construye un rectángulo de altura nk y anchura dx. El diagrama así obtenido se llama histograma. Muestra la densidad de la distribución de los resultados de los cálculos a lo largo del eje x.

Si el número de cálculos es grande, la anchura del intervalo puede hacerse pequeña (con muchas más muestras en cada intervalo). Entonces, en lugar de un histograma obtendremos un gráfico en el que se traza en el eje de ordenadas un valor proporcional a la fracción de nk/n muestras que caen en cada intervalo. Este gráfico se denomina curva de distribución o función de distribución; la función en sí se llama función de densidad de probabilidad.

P.D. La PDF puede estar normalizada, en cuyo caso la integral de la misma sobre todo el rango es idéntica a 1.

 

Neutrón

Gracias. Ahora lo veo. Sólo que has construido la función de densidad de probabilidad (PDF) y no la PDF (función de distribución), porque la PDF tiene 3 propiedades. 1. Es (PDF) no decreciente. 2. Si x tiende a infinito, entonces la PDF tiende a 1. Naturalmente, si todo está normalizado. El SP y la PDF están relacionados por una integral (la PDF es una integral del SP).

Este gráfico se denomina curva de distribución o función de distribución y la propia función se denomina función de densidad de probabilidad" no es del todo correcto

Razón de la queja: