Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 2834

 
СанСаныч Фоменко #:

Lo que estoy impulsando aquí es la idea de que la sostenibilidad de los beneficios en el futuro depende de las propiedades de los predictores y depende muy poco del modelo, y mucho menos de los algoritmos de optimización. Se trata de un enfoque completamente distinto.

¿Puede enviarme su muestra? Tenemos la misma visión del problema del mal aprendizaje de los modelos, me gustaría comparar en qué medida tu método de selección es mejor que el mío, y si se ajusta en algo a tu muestra.

 
¿Qué se propone sustituir al logloss?
 
Aleksey Nikolayev #:

Sí, esa es la parte complicada. Tienes que calcular el gradiente y la matriz de segundas derivadas: el hessiano. El hessiano también debe ser definida positiva.

Para el beneficio, por ejemplo, el hessiano es degenerado como (igual a cero). Es necesario de alguna manera finesse la función de pérdida a un compromiso razonable entre la necesidad y la necesidad.

Aquí, según tengo entendido, el hessiano no se tiene en cuenta en absoluto.

#  Custom objective function (squared error)
myobjective <- function(preds, dtrain) {
  labels <- getinfo(dtrain, "label")
  grad <- (preds-labels)    
  hess <- rep(1, length(labels))                
  return(list(grad = grad, hess = hess))
}

#  Custom Metric
evalerror <- function(preds, dtrain) {
  labels <- getinfo(dtrain, "label")
  err <- (preds-labels)^2        
  return(list(metric = "MyError", value = mean(err)))   
}

Sólo se trabaja para reducir el gradiente.

grad <- (preds-labels)   


Esto es diferente.

logregobj <- function(preds, dtrain) {
  labels <- getinfo(dtrain, "label")
  preds <- 1 / (1 + exp(-preds))
  grad <- preds - labels
  hess <- preds * (1 - preds)
  return(list(grad = grad, hess = hess))
}


Recuerdo que tuve muchos problemas con ello, así que lo dejé.

Pero sería genial entrenar mi físico).
 
СанСаныч Фоменко #:

Pero en realidad es así: no necesitamos ningún óptimo, necesitamos mesetas, cuantomás extensas, mejor, cuanto más rentables, mejor. Y un extremo es siempre un estado inestable, y el

¿Y la función que evalúa "cuánto meseta/no meseta" no es la búsqueda del máximo?

¿Y la función que evalúa "cuanto más rentable, mejor" no es la búsqueda de máximos ?

¿Yla función que evalúa "cuanto más extensa mejor" no es una búsqueda de máximo?

¿Y la función que evalúa "estado estable/no estable" no es una búsqueda de máximos?

¿O también se necesita una meseta? )))) Bueno, entonces vea el punto uno ))))

Oh estas personas profanas ...



SanSanych Fomenko #:

Estoy empujando la idea aquí de que la sostenibilidad de los beneficios en el futuro depende de las propiedades de los predictores y muy poco en el modelo, y mucho menos en los algoritmos de optimización. Es decir, un enfoque completamente diferente.

No hay que insistir en la idea, sino demostrarla o al menos justificarla....

Había uno aquí, empujando la idea de que Mashka es lo mejor que puede ser, y cuál es el uso de este empujando??????

 
Más guay aún sería incluir el cuerpo que falta y pensar qué tipo de relación podría describir el factor de beneficio entre fichas y etiquetas. Más o menos ninguna 🤤
 
СанСаныч Фоменко #:

1. Tendré en cuenta el apellido. Eres la única persona que conozco con ese apellido.

2. Me gustaría objetar que no debemos llevar la idea al absurdo, pero en realidad el caso es el mismo: no necesitamos ningún óptimo - necesitamos mesetas, cuanto más extensas, mejor, cuanto más rentables, mejor. Y el extremo es siempre un estado inestable, pero necesitamos un estado estable, y en el futuro. Por lo tanto, resulta que la búsqueda de óptimos es una ocupación perjudicial.

Aquí estoy impulsando la idea de que la estabilidad del beneficio en el futuro depende de las propiedades de los predictores y depende muy poco del modelo, y aún menos de los algoritmos de optimización. Se trata de un enfoque completamente distinto.

1. v

2. He aquí una figura, como la curva de una hipotética función de aprendizaje.

¿Estás seguro de que la cuadrícula se detendrá en el extremo local 1? ¿O tal vez en el 2? ¿O qué, en el 3, como en el medio? Así que no se sabe de antemano cuántos extremos locales hay, puede haber 100500 o incluso más. Por eso es importante tratar de encontrar el mayor de todos los extremos locales que el algoritmo puede alcanzar.

 
Maxim Dmitrievsky #:
¿Qué se propone sustituir al logloss?

Si es una pregunta para mí, el beneficio o algún análogo razonable del mismo. Beneficio - que sea por ahora sólo la suma de todos los (cierre[i] - apertura[i])*prognos[i], donde prognos[i] es la predicción del color de la vela y es 1 o -1. Puede que tenga que ser modificado de alguna manera para un buen gradiente y comportamiento hessiano.

 
Aleksey Nikolayev #:

Si es una pregunta para mí, el beneficio o algún análogo razonable de la misma. Beneficio - que por ahora sólo sea la suma de todos (cierre[i] - apertura[i])*prognos[i], donde prognos[i] es la predicción del color de la vela y es 1 o -1. Puede que haya que modificarlo de alguna manera para obtener un buen comportamiento de gradiente y hessiano.

En genética, tomamos variables y las maximizamos mediante un criterio. No se puede hacer eso aquí, porque la clasificación. No hay relación entre el beneficio y las etiquetas de clase. En el mejor de los casos, no obtendrás nada. Es por eso que tales criterios se colocan en eval_metrics
 
Maxim Dmitrievsky #:
En genética, tomamos variables y las maximizamos en un criterio. No se puede hacer eso aquí, porque es una clasificación. No hay relación entre el beneficio y las etiquetas de clase. En el mejor de los casos, obtendrás tonterías. Es por eso que tales criterios se colocan en eval_metrics

No hay felicidad en la vida).

 
Aleksey Nikolayev #:

No hay felicidad en la vida)

Incluso desde el nombre pérdida f-ma es la pérdida f-ma entre los valores de referencia y el modelo.

De qué lado está la manga en forma de beneficio
Razón de la queja: