Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 637

 
Alexander_K2:

:)))) En este caso habría que pedir ayuda a Sorcerer :))))

Lo único que puedo decir es que es la no-entropía la responsable de la tendencia/estado plano. La tendencia es la "memoria" del proceso, su "cola" de distribución y la no entropía es enorme, mientras que en el estado plano es casi 0. Sólo me ocupo de él, pero entiendo la importancia de este parámetro poco estudiado.

Ya nada puede evitarlo. El cambio de tendencia/flota, como una cuchara a la cena, debería ser bueno en el tiempo.

La línea roja es la actual. Modelo sincrético. En este ejemplo es tarde. En la imagen inferior, el modelo llega tarde.


 
Mihail Marchukajtes:
Hermanos, es sólo un pequeño paso para nosotros, pero será un gran paso para toda la humanidad.....

¡Misha, yo creí! ¡Lo sabía! ¡Guapo! Eres el mejor))

 
Vizard_:

¡Misha, yo creí! ¡Lo sabía! ¡Guapo! Eres el mejor!)))

¡¡¡¡¡Gracias por su apoyo mate!!!!! Realmente lo necesito. La próxima vez que te dirijas a mí, escríbelo bien. HandsomeGGG!!!! Suena mucho más sólido así....

 

Continuemos...

Hay dos columnas con valores, calculé la probabilidad de un evento en la columna A y la probabilidad de otro evento en la columna B. La condición es muy simple >0. Conté el número de eventos mayores que cero en la columna A y dividí por el número total de filas, lo mismo conté el número de valores en la columna B y dividí por el número total de observaciones.

A continuación, utilizando mis valores, ¿cómo puedo calcular la probabilidad condicional???? Teniendo en cuenta que tengo dos columnas y ambas tienen 40 filas????

 
Mihail Marchukajtes:

De acuerdo, lo veré desde el otro lado. Supongamos que tengo un conjunto de 100 entradas. Calculo la entropía para cada entrada y obtengo resultados de -10 a 10. Pregunta: ¿Qué insumos son preferibles para tomar????

Digamos que tengo 10 entradas por debajo de cero, el resto por encima, PERO todos los valores están entre -10 y 10.....

Mihail Marchukajtes:

Y además... no puedo calcular la información mutua.... O más bien la probabilidad condicional, para el posterior cálculo de la entropía y el VI.

Puede alguien explicar en los dedos o mejor ejemplo.

primera columna 40 líneas variable de entrada

segunda columna 40 líneas salida....

Hizo mucho trabajo durante la noche para identificar la hipótesis. Me tropecé con estas cosas y no hay manera. Por favor, ayuden y daré mi opinión sobre mi hipótesis...


No he estudiado la teoría de la información, pero tengo algo de experiencia con la entropía en R.

Esencialmente, cuanto mayor es la entropía, más caos hay en los datos. Un predictor con alta entropía está bastante mal relacionado con el objetivo. Por el contrario, una entropía baja indica que el predictor es fácilmente identificable desde el predictor.

La no entropía es lo contrario de la entropía, no aporta ningún conocimiento nuevo respecto a la entropía, sólo se introduce por comodidad. Si el predictor tiene una gran entropía, la no entropía es pequeña. Si la entropía es pequeña, la no entropía es grande. Es como el calor y el frío, la luz y la oscuridad, etc., uno fluye perfectamente en el otro.

Pero eso no es todo, también hay entropía cruzada. Así es como los dos predictores juntos se relacionan con el objetivo, la entropía cruzada alta es mala, la baja es buena. En el aprendizaje automático suele ocurrir que dos predictores con alta entropía cuando se utilizan juntos dan una baja entropía cruzada, que es lo que todos necesitamos. Aunque cada uno de los predictores puede estar mal asociado al objetivo por sí mismo (alta entropía para ambos), pero juntos pueden dar en la diana (baja entropía cruzada). Así que no se puede simplemente medir la entropía de cada predictor por separado, y elegir un conjunto según la estimación. Hay que seleccionar todo el conjunto de predictores con baja entropía cruzada, yo por ejemplo no miro cuál es su entropía individualmente.

He aquí algunos ejemplos

1) Predictor con alta entropía. No hay manera de predecir la clase de objetivo en absoluto.

2) Predictor con baja entropía. Si se observa con atención, si el valor del predictor es de 0 a 0,25 o inferior a 0,4, entonces el valor de la clase = 1. En caso contrario, clase = 2. Este es un predictor muy útil para usar en MO.

3) Dos predictores, cada uno de los cuales tiene una alta entropía, y el modelo nunca será capaz de predecir el objetivo utilizando sólo el primer o el segundo predictor. Pero al dibujarlos juntos (el eje X es el valor del primero, y el valor Y del segundo) podemos ver inmediatamente que juntos dan muy buena información sobre la clase del objetivo (mismo signo para ambos predictores = clase1, distinto signo = clase2). Este es un ejemplo de baja entropía cruzada.


 
Mihail Marchukajtes:

¡¡¡¡¡Gracias por su apoyo Fellow!!!!! Realmente lo necesito. La próxima vez que te dirijas a mí, escríbelo bien. HandsomeGGGG!!!! Eso suena mucho más sólido....

¡Por eso te queremos, profesor! Siempre está ahí, siempre nos corrige. Eres nuestro querido hombre!!!)

"Testigos de Mishanin. Febrero de 2018.


 
A pesar de las recriminaciones, continuaré. He calculado la probabilidad condicional de la siguiente manera. El número de datos que satisfacen la condición en la primera columna es 19, en la segunda 20. Para encontrar la probabilidad condicional. Sumo 19+20 y lo divido todo por el número total de entradas que es 80 (40 en la primera columna y 40 en la segunda). Y tienes que dividir por la probabilidad.... Si tengo la columna A-entrada y la columna B-salida, entonces para saber la probabilidad condicional de entrada a salida hay que dividir la probabilidad total por la probabilidad de la columna de entrada. ¿Es esto correcto?
 
Mihail Marchukajtes:

De nuevo, una pregunta. Hay ocho modelos de NS. Con la señal actual, las entropías de las salidas NS son las siguientes

5,875787568 -5,702601649 5,066989592 9,377441857 7,41065367 1,401022575 4,579082852 5,119647925

¿Cuál quieres? ¿La roja? porque tiene entropía negativa o la azul? está más cerca de cero. Diré que estos dos modelos miran en direcciones diferentes, pero sabemos que el tiempo dirá quién tenía razón.... Al final, uno de ellos ganará. ¿Quién lo piensa?

Resumiendo lo que he escrito arriba, primero hay que determinar la entropía cruzada de las combinaciones de predictores y tomar la combinación de predictores en la que la entropía cruzada sea menor. Es extraño que sea negativo, en mi caso es sólo infinito a cero, pero da igual, coge el más negativo entonces.

La entropía de la salida del NS es, en mi opinión, mala como estimación de la propia neurona. Puedes ajustar las salidas de la red para que dé una respuesta correcta en el 100% de los casos, y tendrá una entropía baja, pero puede tener un gran sobreajuste. La sobrealimentación es mala.

 

La cuestión es que he encontrado un complemento para Excel que calcula la entropía. Lo he terminado como quiero, sin cambiar la lógica del cálculo y por eso tengo esta pregunta. Explica lo que ocurre aquí en el cálculo de estos cíclopes. Qué hacen exactamente, entiendo, pero de alguna otra manera.... HM....

Para cada valor en ActiveSheet.Range(Data1)

X(I) = Valor

Nn = Nn + Valor

I = I + 1

Siguiente valor

En este bucle se escribe la matriz X y también hay una suma acumulada, como si no hubiera duda, pero además....

Para I = 1 a N

X(I) = X(I) / Nn

Siguiente I

Dividimos cada elemento de la matriz por la suma total de los valores, sospecho que esto es sólo la búsqueda de frecuencia. Derecho????

Ok... creo que lo entiendo, hay que sumar todas las frecuencias para encontrar la probabilidad. ¿Verdad?

 
Dr. Trader:

Para resumir lo que escribí anteriormente, primero se determina la entropía cruzada de las combinaciones de predictores, y se toma la combinación de predictores con la entropía cruzada más baja. Es extraño que sea negativo, en mi caso es justo el infinito a cero, pero no importa, toma el más negativo entonces.

La entropía de la salida del NS es, en mi opinión, mala como estimación de la propia neurona. Puedes ajustar las salidas de la red para que dé una respuesta correcta en el 100% de los casos, y tendrá una entropía baja, pero puede tener un gran sobreajuste. La sobrealimentación es mala.

Para encontrar la entropía cruzada primero hay que encontrar la entropía condicional de dos eventos, que es lo que estoy haciendo ahora....

Y la estimación de la entropía del modelo es necesaria cuando el modelo está en OOS. Una vez emitida una señal, podemos calcular la entropía de esta señal y utilizarla para sacar conclusiones. La entropía de la señal ha aumentado. A la mierda, está abajo - es nuestra locomotora de vapor....

Razón de la queja: