La etiqueta del mercado o los buenos modales en un campo de minas - página 11

 
Neutron >> :

Así es.

Pero, la entrada de cada perseptrón tiene una entrada adicional separada para un desplazamiento constante de +1. Esto acelera el aprendizaje y aumenta la potencia de la Red.

O, si no cuentas la capa de entrada, entonces con todo lo dicho:



Si hay algún error, por favor, corríjalo.

 
Neutron >> :

Así es.

Pero, la entrada de cada perseptrón tiene una entrada adicional separada para un desplazamiento constante de +1. Esto acelera el aprendizaje y aumenta la potencia de la Red.

¿Es como un truco que sustituye al umbral de la neurona sin aumentar el número de parámetros configurables? Genial, es la primera vez que lo veo pero me gusta :)

 

¿Y dónde está el sesgo constante en la entrada de cada neurona?

paralocus писал(а) >>

Por lo que he podido entender, la figura muestra la arquitectura óptima de NS para el mercado.

Esto es lo que yo entiendo. Tal vez no sea cierto. Pero los resultados de los experimentos numéricos confirman esta afirmación.

El número de entradas es 12 y el número de sinapsis es 4 por lo que por la fórmula Popt=k*w*w/d obtenemos 144/4 = 36... ¿Son 36 barras? ¿O 36 situaciones cercanas a la compra/venta? ¿Lo he entendido bien?

Considere cuidadosamente: Número de todas las sinapsis en su arquitectura: w=12+4=16.

Número de entradas: d=3 (no 4*3, sino sólo 3).

La longitud óptima de la muestra de entrenamiento: Popt=k*w*w/d =4*16*16/3=340 muestras por serie temporal (tiene 4 muestras en cada neurona de entrada). Pueden ser barras o valores indicadores, o pueden ser muestras transaccionales y es usted quien decide qué es mejor para aumentar la previsibilidad... Recuerde que la previsibilidad forma parte de la tasa de rendimiento del MTS al 4º grado. Una correlación muy fuerte (ver este tema al principio).

 
paralocus писал(а) >>

O, si no cuenta la capa de entrada, tenga en cuenta todo lo que se dice:

Si hay errores, por favor, corríjalos.

¡No lo entiendo!

¿Por qué no cuenta la capa de entrada? ¿No participa en el aprendizaje y la predicción?

Lo mejor es tener dos capas: una capa oculta (también conocida como capa de entrada) y una capa de salida. Con esta arquitectura, tienes w=4*4+5=21, d=4 y P=4*21*21/4=440 cuentas.

 
TheXpert писал(а) >>

¿Es una especie de truco que sustituye el umbral de la neurona sin aumentar el número de parámetros que se pueden ajustar?

FION escribió >>

Ya veo. El desplazamiento constante simplemente desplaza ligeramente el punto de activación en la curva de hipertensión.

Generalmente es correcto, pero para ser precisos, cuando llega otro lote de datos a la entrada NS, implicamos que no está centrado (MO!=0). Por eso introducimos una entrada constante adicional en cada neurona. En el proceso de entrenamiento, una neurona concreta selecciona un valor de peso en esta entrada para que compense un posible desplazamiento de sus datos de entrada. Esto permite un aprendizaje estadísticamente más rápido (desde el centro de la nube imaginaria).

 
Neutron >> :

¿Y dónde está el sesgo constante en la entrada de cada neurona?

Eso es lo que pienso. Esto puede no ser cierto. Pero los resultados de los experimentos numéricos confirman esta afirmación.

Contemos con cuidado: Número de todas las sinapsis en su arquitectura: w=12+4=16

Número de entradas: d=3 (no 4*3, sino sólo 3).

La longitud óptima de la muestra de entrenamiento: Popt=k*w*w/d =4*16*16/3=340 muestras por serie temporal (tiene 4 muestras en cada neurona de entrada). Pueden ser barras o valores indicadores, o pueden ser muestras transaccionales y es usted quien decide qué es mejor para aumentar la previsibilidad... Recuerde que la previsibilidad forma parte de la tasa de rendimiento del MTS al 4º grado. Una correlación muy fuerte (ver este hilo al principio).

Popt=k*w*w/d, donde k es una constante adimensional de orden 1 y da cuenta del hecho de que el mercado es volátil.

Entonces en esta fórmula d es el número de entradas de una neurona de la capa oculta, y k es el número de neuronas en la capa oculta? Lo siento, me cuesta creer que la red pueda aprender en 340 bares. Es muy pequeño... Debo haber entendido algo mal.

Hasta ahora sólo conocía el perceptrón más sencillo que se "entrena" en el probador del terminal MT4 con un algoritmo genético. Hay que comprobar al menos un historial significativo (2 o 3 meses). Por supuesto, entiendo que el genetista en realidad no le enseña nada al perceptrón, sólo elige los coeficientes más adecuados y trabaja con una efectividad muy baja, ya que actúa a ciegas. Bueno, no importa. Eso fue una digresión lírica.


¿He entendido bien que las entradas individuales también deben tener sus propios factores de ponderación? ¿Y cómo puedo poner en la "lista blanca" las entradas? Es decir, supongamos que tengo el RSI normalizado por la hipertangente con una expectativa tan alta como 0,21 en la entrada. Si hago lo siguiente: f(t) = th(RSI(i)*kf), donde kf > 1 es un coeficiente especialmente seleccionado que nivela la función de densidad de probabilidad a costa de cierta distorsión de la señal de entrada, ¿estará bien o no?

¿Qué son los recuentos transaccionales?

 
Neutron >> :


Por cierto, para todos los interesados: la estrategia - "bloquear las pérdidas y dejar que crezcan los beneficios" o "bloquear los beneficios y dejar que crezcan las pérdidas" (dependiendo de si el mercado está en tendencia o plano, en el horizonte de negociación elegido)- no es óptima cuando se reinvierte el capital. ¡En este caso, es más rentable fijar en cada paso con la reinversión! Es decir, si tenemos 10 transacciones rentables continuas, entonces es más rentable pagar comisiones a las empresas de corretaje y reinvertirlas, que mantener una posición todo el tiempo y ahorrar en el spread.

Esto es una paradoja, que nos lleva al bernulling de las transacciones y después de eso - al uso efectivo de la ecuación básica del comercio en la forma analítica (a diferencia de Vince) sin ningún problema con la parametrización.

Esto no es tanto una paradoja como una propiedad de la gestión de la movilidad con reinversión. La eficacia de esta gestión de la movilidad depende, entre otras cosas, del número de operaciones. La rentabilidad de este MM es la media geométrica en grado del número de operaciones. Con un pequeño número de operaciones la rentabilidad pierde a un simple MM, pero si conseguimos sobrevivir con un gran número de operaciones (jugar en largo) entonces la rentabilidad puede ser mayor. Pero, como siempre, nada se da gratis. El precio a pagar es el apalancamiento asimétrico y su consecuencia: un largo periodo de bajos ingresos en comparación con una simple MM.

 
paralocus писал(а) >>

Popt=k*w*w/d, donde k es una constante adimensional de orden 1 y da cuenta del hecho de la variabilidad del mercado.

Entonces, en esta fórmula d es el número de entradas de una neurona de la capa oculta, y k es el número de neuronas de la capa oculta? Lo siento, me cuesta creer que la red pueda aprender en 340 bares. Es muy pequeño... Debo haber entendido algo mal.

Hasta ahora sólo conocía el perceptrón más sencillo que se "entrena" en el probador del terminal MT4 con un algoritmo genético. Hay que comprobar al menos un historial significativo (2 o 3 meses). Por supuesto, entiendo que el genetista en realidad no le enseña nada al perceptrón, sólo elige los coeficientes más adecuados y trabaja con una efectividad muy baja, ya que actúa a ciegas. Bueno, no importa. Eso fue una digresión lírica.

¿He entendido bien que las entradas individuales también deben tener sus propios coeficientes de ponderación? ¿Y cómo podemos "poner en lista blanca" las entradas? Supongamos que tengo un RSI normalizado hipertangente con una expectativa tan alta como 0,21 en la entrada. Si hago lo siguiente: f(t) = th(RSI(i)*kf), donde kf > 1 es un coeficiente especialmente seleccionado que nivela la función de densidad de probabilidad a costa de cierta distorsión de la señal de entrada, ¿estará bien o no?

¿Qué son los recuentos transitorios?

Paralocus, ¿tienes miedo de equivocarte? ¡Suéltalo! - Pruébalo de esta manera y de la otra, y verás el resultado: todo encajará.

k no es el número de entradas de las neuronas, sino una característica empírica del Mercado - su variabilidad y se elige en el rango de 2 a 4. Si el Mercado fuera estacionario, entonces k podría tomarse tanto en 10 como en 20, lo que significaría ir a la asintótica en el proceso de aprendizaje de la Red. Desgraciadamente, el Mercado puede llamarse estacionario sólo en su no estacionariedad, por lo que el coeficiente debe tomarse lo más mínimo posible en el proceso de reentrenamiento del NS. De ahí que obtengamos el rango para k mencionado anteriormente .

Su genetista es una especie de método estocástico de aprendizaje con elementos de descenso de gradiente (si no me equivoco). No es algo malo, pero pierde en términos de velocidad de aprendizaje frente a ORO. Abandone la geneticidad en favor de la propagación del error hacia atrás: el aprendizaje será más eficiente y no hay límite en el número de entradas y sinapsis de la Red.

Las entradas individuales tienen sus coeficientes, que se entrenan como normales y no difieren en propiedades de otras entradas.

El blanqueo de entradas, es una eliminación de las dependencias de correlación entre ellas. Para utilizar este procedimiento, primero hay que convencerse de esta misma correlación.

Una transacción, es el acto de comprar o vender un activo en el mercado, es decir, una transacción, un soborno (no en el sentido penal:-)

 
Neutron >> :

Abandonar la genética en favor de la retropropagación del error: el aprendizaje será más eficiente y no hay límite en el número de entradas y sinapsis de la Red.


Eso es todo, me he rendido. Se sentó a escribir la parrilla con ORO. Puede haber algunas preguntas sobre la propia ETA.

 
paralocus писал(а) >>

Puede haber algunas preguntas sobre la propia ETA.

No hay problema.

Por cierto, veamos más de cerca la arquitectura de su Red.

Se tiene un comité de tres redes bicapa independientes conectadas por una neurona de salida (así el comité). Cada rejilla de su comité contiene una sola neurona en su entrada, lo cual es erróneo, porque tal arquitectura no difiere de un perseptrón de una sola capa en su poder de cálculo. Por eso tienes tres entradas (4 incluyendo el bias) en lugar de 12. Una vez más: has creado un consejo de administración analógico, donde el presidente por votación general (neurona de salida) elige la respuesta "correcta", y cada uno de los votantes está representado por una sola neurona. Esta arquitectura no proporcionaría una ventaja comercial. Correcto, proporcionar al menos dos neuronas de entrada para cada miembro del comité, permitirá explotar plenamente la propiedad de nulidad de FA y aumentar notablemente el poder predictivo del comité.

Ya ves lo mucho que la IA y nosotros tenemos en común... De hecho, la votación en una reunión del Komsomol no es más que el esquema óptimo de comportamiento colectivo en cuanto a la consecución más rápida del objetivo al menor coste.

Nótese que la salida del comité no tiene una función de activación no lineal, es simplemente un sumador y su función es tomar una decisión basada en los resultados de la votación. Así que esta arquitectura es la que más se acerca a tu idea y es un comité de redes no lineales de dos capas con una capa oculta. El número de neuronas en la capa oculta puede aumentar la precisión de la predicción, pero debemos recordar que la longitud de la muestra de entrenamiento aumenta cuadráticamente y muy pronto llega a un punto en el que la eficiencia del aumento incremental disminuye e incluso conduce a la degradación de las capacidades de predicción de la red. Según mis experimentos numéricos, lo óptimo es no más de 2-4 nerones en la capa oculta.

Para una arquitectura determinada, la longitud óptima de la muestra de entrenamiento P=1500 muestras.

P.D. Se ve bien. Me refiero a la imagen. ¡Obtengo placer estético!

Razón de la queja: