La etiqueta del mercado o los buenos modales en un campo de minas - página 83

 
paralocus писал(а) >>

La partición óptima de un BP de garrapatas con umbral H, debe considerarse la partición en la que hay el mínimo número de hombros consecutivos de un solo color de una serie de transacciones.

Si la distribución de la fila de transacciones resultante es tal que más del 50% de los hombros consecutivos tienen colores diferentes, entonces ¿por qué NS?

Así es. Efectivamente, el caso que has expuesto corresponde a un mercado ineficiente en el que se puede y se debe ganar dinero. Si trazamos la serie de transacciones (RT) de forma aislada del tiempo terminal (sólo la cuenta atrás de la serie), el efecto es más evidente:

Exactamente esas zonas (y se ven igual para las estrategias H+/-) son pescadas por el CT basado en las construcciones Kagi descritas en la disertación de Pastukhov. Pero existe un problema relacionado con la baja rentabilidad (en comparación con las comisiones de los corredores) de este tipo de TS. Está relacionado con el hecho de que la estrategia clásica utiliza la propiedad más sencilla y accesible de la formación de Kagi: la inversión de PT, pero hay otras regularidades... ¡eso es lo que la NS debería poder identificar!

 
Neutron >> :

hay otros patrones... eso es lo que el NS debería poder detectar.

¿Podemos profundizar en este punto? No se me ocurre otra cosa que no sea la longitud de los hombros (si se piensa en NS y kagi)

Así que estoy un poco perplejo:

Supongamos que hay un NS que se entrena con un número de: +1,-1,+1,-1,+1,-1,-1.... (es decir, entradas binarias). En este caso puedo adivinar con un 80% de exactitud de tres veces lo que va a aprender. La no linealidad del NS es irrelevante.

 

¡Me gustaría tanto como a ti saber las respuestas a algunas preguntas!

Veamos cómo funciona un NS binario. Supongamos que tenemos un vector de entrenamiento. Todo lo que puede hacer un NS de este tipo para minimizar el error de salida es calcular las probabilidades de los resultados para todas las posibles combinaciones de entrada. Para mayor claridad, tengamos tres entradas, entonces todas las combinaciones de entrada se reducen a los siguientes patrones (por belleza iremos de +/-1 a 0/1):

000

001

010

011

100

101

110

111

Si el vector de entrenamiento P es varias veces más largo que el número de entradas d, el NS calculará simplemente la probabilidad p de obtener 1 en cada patrón (la probabilidad para el cero es 1-p). ¡Pero podemos hacerlo sin NS! Aquí hay una sutileza. En concreto, ¿qué hará cuando el vector de entrenamiento no contenga ninguna combinación? ¿Qué asignará en realidad a este patrón? - ¡Nada! Tendrá que aumentar la longitud del vector P hasta encontrarlo (el patrón). Y no es un hecho que tengas suficientes datos disponibles, o incluso si los tienes, no es un hecho que no consigas salir de la duración óptima de aprendizaje. ¿Sabes a qué me refiero? Aquí es donde entra en juego la ventaja de la NS. Resulta que no necesita todo el entrenamiento (para todas las ocasiones), ¡pero es capaz de generalizar el conocimiento disponible con la máxima fiabilidad de generalización! En otras palabras, reconstruye el resultado más probable para un patrón por sí mismo, incluso si no estaba allí antes en el programa de entrenamiento. Es como un adulto: no necesitamos un precedente para tomar una decisión en tal o cual situación.

Así, tomará una decisión proyectando los datos disponibles (entrada) sobre una determinada hipersuperficie que construye en el espacio de características durante su entrenamiento. Esta superficie es multidimensional (por número de entradas) y puede ser un plano, o una superficie de orden superior (paraboloide, hiperboloide para tres dimensiones, etc.). La presencia de no linealidad, permite topologías de superficie complejas, y no importa que la entrada sea binaria, lo que importa es que se proyecte sobre una superficie no trivial.

Por lo tanto, creo que la no linealidad, incluso con una entrada binaria, juega un papel importante.

 
Sí, lo entiendo. Hay una idea. Necesitamos calcular la probabilidad de que el módulo de proyección de la siguiente palanca de una serie de operaciones en el eje Y sea n>1 de dispersión. Entonces calcula el tamaño del soborno como una MO de la longitud de la palanca y lo mismo será el tope. Me temo que eso es todo lo que pueden dar las estadísticas, pero es +.
 

Estoy un poco confundido sobre el cálculo del error para la capa oculta con FA no lineal. ¿Puede comprobar si estoy tomando el error de la capa oculta correctamente?

Aquí me confunde que el error a la salida de la capa oculta sea igual al valor de la microcorrección de la sinapsis de la capa de salida correspondiente

 

¡No, no está bien!

1. Encuentra la salida NS - OUT. Lo has entendido bien.

2. Calcula el error del NS: dOUT=x-OUT. Conociendo este error, encuentre el valor de los pesos de corrección de la neurona de salida. Esto también es correcto.

3. el mismo error está en la salida de cada i-ésima neurona de la capa oculta (entrada), recalcularla a la entrada por la fórmula: dIn[i]=dOUT*(1-out[i]^2), donde out[i ] es la salida de la i-ésima neurona de la capa oculta. Conociendo el error llevado a la entrada de cada neurona(dIn[i]), se encuentra el valor de los pesos de corrección en la capa de entrada.

 

Daba 100 - 120 épocas para una sola capa. Para un bicapa, ¿es probablemente insuficiente? Todavía no está dando buenos resultados en el kotier(reloj).


 
paralocus писал(а) >>

Algo de ella en la kotira (relojes) no está dando buenos resultados todavía.

¿Esperas algo diferente?

 
Neutron >> :

¿Esperabas algo diferente?

Honestamente, sí. Es decir, lo de la capa única funcionaba. Sin embargo, tienes razón, deberías dejar los plazos de forma definitiva.

 
paralocus писал(а) >>

Daba 100 - 120 épocas para una sola capa. Para un bicapa, ¿es probablemente insuficiente? Todavía no da buenos resultados en el kotier (reloj).

Pensé que habías dicho eso de la capa única...

Tengo una capa doble en la capilla que da constantemente th<=0,05, y una capa simple alrededor de cero.

Razón de la queja: