Regresión Bayesiana - ¿Alguien ha hecho un EA utilizando este algoritmo? - página 41

 
Vizard_:
Así es como, poco a poco, llegamos al fascinante tema de las transformaciones)))) porque si no hay una distribución normal, se puede hacer una.
Va a llevar mucho tiempo, porque se necesita tanto la retransformación como... Y a Box-Cox no le gusta mucho)))) Es una pena que si no tienes
Es una pena que si no tienes buenos predictores, no tenga mucho efecto en el resultado final...

En primer lugar, me gustaría ver un atisbo de comprensión en los ojos de los "fieles". Y entonces, sí, convertir si es necesario. La cuestión es si las colas gruesas se pueden convertir. Pueden suponer una gran diferencia de calidad.

 
Alexey Burnakov:

En primer lugar, me gustaría ver un atisbo de comprensión en los ojos de los "fieles". Y entonces, sí, convertir si es necesario. La cuestión es si las colas gruesas se pueden convertir. Pueden tener un gran impacto en la calidad.

Hay regresiones para colas gruesas, de memoria FARIMA.

Pero volvamos a la magnitud del incremento.

¿Qué estamos negociando? ¿Un incremento de 7 pips a la 1 en punto con respecto a la barra anterior? No lo entiendo muy bien. ¿Puede alguien iluminarme?

El incremento se puede negociar, más precisamente, la volatilidad, pero en relación con alguna serie estacionaria - se llama cointegración.

 
Me gustaría que alguien considerara seriamente las aportaciones )
 
СанСаныч Фоменко:

Hay regresiones para colas gruesas, de memoria FARIMA.

Pero volvamos a la magnitud del incremento.

¿Qué estamos negociando? ¿Un incremento de 7 pips en el marcador de la hora con respecto a la barra anterior? No lo entiendo muy bien. ¿Puede alguien iluminarme?

El incremento se puede negociar, más precisamente, la volatilidad, pero en relación con alguna serie estacionaria - se llama cointegración.

¿Y qué es lo que se negocia si no son incrementos?
 
Комбинатор:
Me gustaría que alguien considerara seriamente los datos de entrada )

Pensé. En serio )

En primer lugar, genero todas las entradas que se me ocurren. A continuación, selecciono las más relevantes para una determinada variable objetivo y desecho el resto. Parece que ayuda, pero depende del método de entrenamiento.

En el experimento que realicé, hice lo siguiente. Primero pensé en la información que el sistema necesitaría ver. Pero todo eso es subjetivo. También elegí predictores informativos antes del entrenamiento, pero funcionó:

train_set <- dat_train_final[, c(eval(inputs), eval(outputs[targets]))]
        test_set <- dat_test_final[, c(eval(inputs), eval(outputs[targets]))]
        
        input_eval <- gbm(train_set[, 109] ~ .
                       , data = train_set[, 1:108]
                       , distribution = "laplace"
                       , n.trees = 100
                       , interaction.depth = 10
                       , n.minobsinnode = 100
                       , bag.fraction = 0.9
                       , shrinkage = 0.01
                       , verbose = T
                       , n.cores = 4)
        
        best_inputs <- as.character(summary(input_eval)[[1]][1:10])
        
        train_set <- dat_train_final[, c(eval(best_inputs), eval(outputs[targets]))]
        test_set <- dat_test_final[, c(eval(best_inputs), eval(outputs[targets]))]

Lo comentaré. Primero entrené en un modelo débil, sin reentrenamiento, con todos los predictores disponibles. Es importante que el modelo no tenga tiempo de reciclarse. Luego tomé los 10 más importantes.

Esto no sólo no redujo los resultados al ruido, sino que aceleró el entrenamiento por un factor de 10.

Esa es una forma de verlo.

 
Alexey Burnakov:
¿Qué es lo que negocia si no son incrementos?

Tendencia en la que interesan los largos y los cortos.

Órdenes en el terminal: COMPRA, VENTA.

 
Комбинатор:
Me gustaría que alguien considerara seriamente los datos de entrada )

Pensando en ello, incluso proporciono un servicio de pago para limpiar los conjuntos de predictores de entrada de los predictores de ruido para los modelos de clasificación. Esto deja un conjunto que no genera modelos sobreentrenados. Es cierto, hay que aclarar: si queda algo. Hay una cosa paradójica: para el comercio de tendencias todas las muchas variedades de mashups son inútiles.

Entre esos conjuntos que he procesado:

  • Reducir la lista original de predictores por un factor de 3 a 5.

Esto deja 20-25 predictores que pueden ser tratados en el futuro

  • de este conjunto de predictores en cada barra elijo algún subconjunto por medio estándar de R
  • quedan 10-15 predictores, sobre los que se entrena el modelo
  • es posible no hacer la última selección de los predictores un número aproximado de barras igual a una ventana, pero la ventana está dentro de 100

Resultado: el modelo no se reentrena, es decir, el error de clasificación en el entrenamiento, AOB y fuera de muestra es aproximadamente igual.

 
Hombre, los hijos del maíz de la normalidad/normalidad son algunos.
 
dos hilos paralelos que discuten lo mismo: la selección de predictores para el modelo
 
СанСаныч Фоменко:

Tendencia en la que interesan los largos y los cortos.

Órdenes en el terminal: COMPRA, VENTA.

¡Esto es lo mismo! Los aumentos se convierten en signos + o -. Y puedes tomar esta señal para incrementos de una hora de antelación.

¿Cuál es la pregunta?