La etiqueta del mercado o los buenos modales en un campo de minas - página 10

 

Hola paralocus, creo que puedes empezar por aquí y luego ya veremos.

Por cierto, para todos los interesados: la estrategia "bloquear las pérdidas y dejar que crezcan los beneficios" o "bloquear los beneficios y dejar que crezcan las pérdidas" (dependiendo de si el mercado es tendencial o plano, en el horizonte de negociación elegido) no es óptima a la hora de reinvertir el capital. ¡En este caso, es más rentable fijar en cada paso con la reinversión! Es decir, si tenemos 10 transacciones rentables continuas, entonces es más rentable pagar comisiones a las empresas de corretaje y reinvertirlas, que mantener una posición todo el tiempo y ahorrar en el spread.

Esta es la paradoja, de la que no está lejos de la bernullización de las transacciones, y después de eso - a la utilización efectiva de la ecuación básica de comercio en la forma analítica (a diferencia de Vince) sin problemas con la parametrización.

 
Neutron >> :

Hola paralocus, creo que puedes empezar por ahí y luego ya veremos.


Gracias.

Tengo tres perceptrones en la entrada (tres hasta ahora) que es la primera capa. La composición de la capa es la siguiente:

Un perceptrón sobre el RSI, otro sobre el CCI y otro sobre el estocástico. Todas las entradas y salidas están normalizadas (-1 ; +1). Los perceptrones son entrenados por los genetistas en el esquema más simple: en la división.

Ahora quiero añadir una segunda capa de dos perceptrones, uno de los cuales está entrenado sólo para comprar y el otro sólo para vender. Pregunta:

¿Basta con que los perceptrones de la segunda capa se entrenen, por así decirlo, cada uno en su especialidad, utilizando los mismos datos de la primera capa, o

¿Los perceptrones de la primera capa también deben entrenarse por separado para la compra y para la venta?

 
paralocus писал(а) >>

Gracias.

No, en absoluto.

Como ves, paralocus, el NS es en esencia un sumador universal y matemáticamente da igual que agudices las neuronas de la capa de salida individualmente para vender o comprar, o que construyas la tercera capa a partir de una única neurona con activación hipertangente, cuya polaridad de salida apuntará a la compra o a la venta, y la amplitud a la probabilidad de éxito (certeza de la red en ella). Desde este punto de vista, no es necesario especializar las neuronas de la primera capa de forma forzada -se determinarán en el proceso de entrenamiento, y teniendo en cuenta que la potencia de cálculo de la NS no aumenta al pasar de la arquitectura de dos capas a la de tres (salvo en algunos casos exóticos) y el hecho de que la longitud de la muestra de entrenamiento es proporcional al cuadrado de todos los pesos de la red (y la muestra, a ser posible, debe ser mínima, para una respuesta inmediata a los eventos del Mercado), así como utilizar el principio de la navaja de Occam (no hay que multiplicar innecesariamente).

P.D. Sí, es importante que la densidad de probabilidad de la señal de entrada para NS tenga una expectativa nula y se distribuya en el intervalo +/-1 igualmente (estante). Esto aumenta notablemente el aprendizaje y el rendimiento de la Red.

 
Neutron >> :

Todavía no.

Como ves, paralocus, la NS es en esencia un sumador universal y matemáticamente da igual que agudices las neuronas de la capa de salida individualmente para vender o comprar, o que crees la tercera capa a partir de una única neurona con activación hipertangente, cuya polaridad de salida apuntará a la compra o a la venta, y la amplitud a la probabilidad de éxito (la confianza de la Red en ella). Desde este punto de vista, no es necesario especializar las neuronas de la primera capa de forma forzada -se determinarán en el proceso de entrenamiento, y teniendo en cuenta que la potencia de cálculo de la NS no aumenta al pasar de la arquitectura de dos capas a la de tres (salvo en algunos casos exóticos) y el hecho de que la longitud de la muestra de entrenamiento es proporcional al cuadrado de todos los pesos de la red (y la muestra, a ser posible, debe ser mínima, para una respuesta inmediata a los eventos del Mercado), así como utilizar el principio de la navaja de Occam (no hay que multiplicar innecesariamente).

P.D. Sí, es importante que la densidad de probabilidad de la señal de entrada para NS tenga una expectativa nula y se distribuya en el intervalo +/-1 igualmente (estante). Esto aumenta notablemente el aprendizaje y el rendimiento de la Red.

¡Eh! ¡Algo está claro, pero mucho es nuevo! Para no perderme nada, preguntaré sobre la marcha...

1. NS es de hecho un sumador universal y casi no hace ninguna diferencia desde el punto de vista matemático, si usted agudiza las neuronas en la capa de salida de forma individual para vender o comprar, o construir la tercera capa de una sola neurona con la activación hipertangente, que la polaridad de salida-sabio apuntará a comprar o vender, y la amplitud - a la probabilidad de éxito (la confianza de la red en él).

Entiendo lo del sumador, pero ¿qué pasa con la neurona con activación hipertangente, qué clase de bestia es? Normalizo las entradas y salidas con sigmoide, y para asegurarme de que la señal en las entradas y salidas es correcta( -1<max y mínimos < +1), he reescrito sutilmente el indicador Perseptron. Es decir, tomamos tres neuronas de entrada y damos sus salidas a la cuarta (con activación hipertangente) cuya salida puede ser absolutamente transparente como una estimación probabilística de un resultado exitoso de una operación en la dirección especificada (hacia la polaridad activa) ... ¿verdad?


2. Desde este punto de vista, no es necesario especializar a la fuerza las neuronas de la primera capa - se determinarán por sí mismas en el proceso de entrenamiento

Es decir, las neuronas de la capa de entrada deben ser entrenadas simplemente para separar los datos de entrada en "derecha" e "izquierda". Estoy un poco confundido sobre cómo "se determinan en el proceso de entrenamiento" - ¿se refiere al entrenamiento de la hipertensión de la neurona de salida, o al entrenamiento de todas las neuronas de salida y de entrada a la vez? Si todos ellos a la vez, el genetista no permitirá optimizar más de 8 parámetros simultáneamente, mientras que hay por lo menos 12 de ellos en tal cuadrícula (... sin contar los parámetros de los pavos) - ¿qué debemos hacer? Si quieres entrenar por separado, primero cada parámetro de entrada por separado, y luego sólo el de salida (lo estoy haciendo ahora), ¿no será un error?


3. El hecho de que la longitud de una muestra de entrenamiento es proporcional al cuadrado de todos los pesos de la red (y la muestra, si es posible, debe ser mínima, para reaccionar rápidamente a los eventos del mercado).

¿Cómo es eso? Elevemos al cuadrado todos los pesos de la red, sumemos esos cuadrados y obtengamos a qué debe ser proporcional la longitud de la muestra de entrenamiento...

Lo de la inutilidad de las muestras largas ya lo sé: llegué, por así decirlo, por "ensayo y error científico". Incluso he encontrado la fecha (2008.12.02), a partir de la cual los datos son simplemente inútiles para la red - no hay correlación con la dinámica real del mercado.


4. La mejor opción parece ser un NS de dos capas con una capa oculta y una neurona de salida.

Aquí no entiendo algo... Si hay una capa de entrada de neuronas, una capa de salida de neuronas y una capa oculta de neuronas, entonces ya son tres. Entonces, ¿por qué hay una red de dos capas?


5. Sí, es importante que la densidad de probabilidad de entrada para el NS tenga una expectativa cero y se distribuya uniformemente en el intervalo +/-1 (estante). Esto aumenta significativamente la eficiencia del entrenamiento y el rendimiento de la Red.

Yo mismo entiendo la necesidad de normalizar la señal de entrada (a nivel de intuición), por eso transformo la señal de entrada para que la salida tenga la misma forma, pero en el rango -/+1. Pero, ¿cómo se distribuye la densidad de probabilidad de un RSI normalizado? Por ejemplo, la señal de entrada de mi neurona RSI tiene este aspecto:


¿Es esto suficiente, o se necesita algo más?

P/S Estoy bien con la navaja, lo principal es entender qué cortar...:-)

 
paralocus писал(а) >>

1. Entiendo lo del sumador, lo de la neurona de activación hipertangente, ¿qué es eso? Normalizo las entradas y salidas con sigmoide, y para asegurarme de que la señal de entradas y salidas es correcta (-1<máximo y mínimo < +1), he modificado ligeramente el indicador Perseptron. Es decir, tomamos tres neuronas de entrada y damos sus salidas a la cuarta (con activación hipertangente) cuya salida puede ser absolutamente transparente como una estimación probabilística de un resultado exitoso de una operación en la dirección especificada (hacia la polaridad activa) ... ¿verdad?

Es una neurona, cuya función de activación (FA) es una tangente hiperbólica (rango de valores +/- 1) - es conveniente para tomar una decisión de compra/venta en el comercio y si |FA|<const - fuera del mercado.

Todas las neuronas NS deben tener una AF no lineal (con algunas excepciones - excepto la última). Nada depende del tipo específico de AF, excepto el ritmo de aprendizaje.

2. Desde este punto de vista, no es necesario especializar las neuronas de la primera capa a la fuerza: se determinarán por sí mismas en el curso del entrenamiento.

Es decir, las neuronas de la capa de entrada deben ser entrenadas simplemente para separar los datos de entrada en "derecha" e "izquierda". Estoy un poco confundido sobre cómo "se determinan en el proceso de entrenamiento" - ¿se refiere al entrenamiento de la hipertensión de la neurona de salida, o al entrenamiento de todas las neuronas de salida y de entrada a la vez? Si todos ellos a la vez, el genetista no permitirá optimizar más de 8 parámetros simultáneamente, mientras que hay por lo menos 12 de ellos en tal cuadrícula (... sin contar los parámetros de los pavos) - ¿qué debemos hacer? Si entreno por separado, primero cada parámetro de entrada por separado, y luego sólo el de salida (que es lo que estoy haciendo ahora), ¿sería un error?

Por supuesto, debemos entrenarlos a todos a la vez, de lo contrario tendremos un problema de lío con la madera. No he tratado con la genética, así que no puedo ayudar.

3. El hecho de que la longitud de la muestra de entrenamiento es proporcional al cuadrado de todos los pesos de la red (y la muestra, si es posible, debe ser mínima, para reaccionar rápidamente a los eventos del mercado).

¿Cómo es eso? ¿Realizando el cuadrado de todos los pesos de la red, sumando luego esos cuadrados y obteniendo la longitud del conjunto de entrenamiento?

Existe una longitud óptima del conjunto de entrenamiento P, que proporciona la mínima suma de error de aproximación y error de generalización. Este óptimo está determinado de forma única por el número de sinapsis w en la red y la dimensión de entrada d (número de entradas de la red):

Popt=k*w*w/d, donde k es una constante adimensional de orden 1 y tiene en cuenta el hecho de la variabilidad del mercado.

El criterio de optimización es la conmensurabilidad del error de la red en la muestra de prueba y en la de entrenamiento, es decir, si la red normalmente entrenada adivina correctamente el 55%, mostrará aproximadamente el mismo resultado en la prueba sobre los nuevos datos. Además, para este tipo de NS no hay problema de reentrenamiento relacionado con el aumento del número de iteraciones en el método ORO - no hay un mínimo local de error - la función es momentánea y tiende asintóticamente a la constante.

4. Una variante óptima parece NS bicapa con una capa oculta y una neurona de salida.

Aquí no estoy siguiendo... Si hay una capa de entrada de neuronas, una capa de salida de neuronas y una capa oculta de neuronas, entonces ya son tres. Entonces, ¿por qué la red tiene dos capas?

Es una cuestión de terminología. No destaco la capa de entrada como algo especial. Así que me refería al NS que sólo tiene dos capas: la de entrada (también conocida como oculta) y la de salida (formada por una sola neurona).

Sin embargo, ¿cómo se distribuye la densidad de probabilidad del RSI normalizado? ¿Es esto suficiente, o se necesita algo más?

No lo sé. Tiene que trazar la distribución de densidad de probabilidad de la primera serie de diferencia de su RSI y observar el gráfico - debería haber una repisa con una amplitud máxima +/-1.

 
Neutron писал(а) >>

No estoy señalando la capa de entrada como algo especial. Por lo tanto, me refería al NS que tiene sólo dos capas - capa de entrada (también oculta) y capa de salida (que consiste en una neurona).

Entonces, la red consta de varios perceptrones paralelos en la primera capa y uno en la capa de salida, siendo el número de entradas del perceptrón de salida igual al número de perceptrones de la primera capa...

 
Neutron >> :

Por supuesto, entrenando todos a la vez, pues de lo contrario tendremos un problema: "en el bosque y fuera del bosque". No he tratado con un genetista, así que no puedo ayudarte en eso.


¡Ahí lo tienes! Y esperaba "mejorar" mi malla a una de autoformación más adelante...

Digiriendo las respuestas que obtuve... >> Dibujaré lo que entiendo

 
FION писал(а) >>

Entonces, ¿la red consta de varios perceptrones paralelos en la primera capa y uno en la capa de salida, con un número de entradas del perceptrón de salida igual al número de perceptrones de la primera capa?

Así es.

Pero, la entrada de cada perceptrón tiene una entrada adicional separada para un desplazamiento constante de +1. Esto acelera el aprendizaje y aumenta la potencia de la Red.

 
Neutron писал(а) >>

Así es.

Pero, la entrada de cada perseptrón tiene una entrada adicional separada para un desplazamiento constante de +1. Esto acelera el aprendizaje y aumenta la potencia de la Red.

Ya veo. El desplazamiento constante sólo desplaza ligeramente el punto de activación en la curva de hipertensión.

 

Neutron escribió >>.


Esto es lo que descubrí:

La hipertensión está resuelta. Hasta ahora utilizaba la sigmoidea y tenía que restar uno al resultado, con esto ya no es necesario. Por lo que he entendido, la figura muestra la arquitectura óptima de NS para el mercado. El número de entradas es 12, y el número de sinapsis es 4. Así, utilizando la fórmula Popt=k*w*w/d obtenemos 144/4 = 36... ¿Son 36 barras? ¿O 36 situaciones cercanas a la compra/venta? ¿Lo he hecho bien?

Razón de la queja: