Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 2832

 

¿por qué borras posts, paranoico? ¿para que no te vuelvan a pinchar por meterte en líos? :)

¿Cuántas veces puedes meter la pata así?

 
Maxim Dmitrievsky #:

Así que hiciste un gran proyecto en R, lo pusiste en el servidor. ¿Y quién lo mantendrá? Y nadie, porque no hay especialistas en tal cantidad y nadie quiere aprender R por una estadística.

Y para python, contrata a cualquier estudiante por un palo de chorizo y te irá bien.


¿Quién necesita estudiantes por un palo de chorizo?

Necesitan estudiantes que sepan estadística, MOE, que se tarda 5 años en estudiar. Y luego sigue siendo deseable trabajar en una organización especializada. Y R o Python se pueden enseñar en una semana, ya que todos esos estudiantes-estadísticos saben C++.

Pero para gente que NO ha estudiado estadística durante 5 años, R es mucho más útil que Python, ya que en R sólo se necesita lo necesario, todo se mastica, se documenta....., ya que al fin y al cabo es un lenguaje especializado.

 
СанСаныч Фоменко #:

¿Quién necesita estudiantes con un palo de salchicha?

Necesitamos estudiantes que sepan estadística, MOE, que se tarda 5 años en estudiar. Y luego es deseable trabajar en una organización especializada. Y R o Python se pueden enseñar en una semana, ya que todos esos estudiantes-estadísticos saben C++.

Pero para gente que NO ha estudiado estadística durante 5 años, R es mucho más útil que Python, ya que en R sólo se necesita lo necesario, todo se mastica, se documenta....., ya que al fin y al cabo es un lenguaje especializado.

Créeme, un estudiante aprenderá estadística en 5 días por un palo de chorizo, y muchas otras cosas también.

La principal condición para el éxito es que el alumno tenga hambre.

mientras llevamos meses y años hablando de lo mismo.

 

¿Por qué discutir siquiera la corrección de la optimización? Local, global - me da igual.


La pregunta de Dick es puramente teórica y NO tiene valor práctico, porque incluso los extremos encontrados muy correctamente están referidos al PASADO y con la llegada de un nuevo bar casi siempre habrá nuevos extremos desconocidos para nosotros. Recordemos el probador. Encuentra extremos. ¿Y qué? Un óptimo del probador no vale nada si no hay consideraciones de que vivirá en el futuro. Pero el tiempo de vida de un óptimo no tiene NADA que ver con la exactitud y la corrección de encontrar este óptimo, sobre lo que escribe Dick.

 
Maxim Dmitrievsky #:

Créeme, un alumno aprenderá estadística en 5 días por un palo de chorizo, y muchas otras cosas por el camino.


Estadística se enseña durante 5 años, y no se puede enseñar a todo el mundo, son especialmente seleccionados en los exámenes de ingreso.

 
СанСаныч Фоменко #:

Estadística se imparte durante 5 años, y no todo el mundo puede acceder a ella, sino que son seleccionados especialmente en las pruebas de acceso.

Si omites detalles y das un problema aplicado del mundo real, el proceso irá más rápido.

La mayoría de las veces son tonterías en la formación, cuando una persona no entiende por qué es necesario y nunca se ha encontrado con ello en su vida. No ven el objetivo final.

 

Alguien me puede decir como hacer una métrica personalizada para catboost, necesito Sharp.

El resultado de entrenar el modelo con mi versión es casi el mismo que con RMSE, así que hay un error en alguna parte del código.

preds y target son return (a[i]-a[i+1])

class Sharpe(object):
    def get_final_error(self, error, weight):
        return error

    def is_max_optimal(self):
        return True

    def evaluate(self, approxes, target, weight):
        assert len(approxes) == 1
        assert len(target) == len(approxes[0])
        preds = np.array(approxes[0])
        target = np.array(target)
        data = [i if i > 0 else -1*i for i in preds]
        sharpe = np.mean(data)/np.std(preds)
        return sharpe, 0

model = CatBoostRegressor(learning_rate=0.1, n_estimators=2000, eval_metric=Sharpe()) 
 
СанСаныч Фоменко tiempo de vida de un óptimo no tiene NADA que ver con la corrección y el acierto de encontrar ese óptimo sobre el que escribe Dick.

mi apellido no se declina.
la cuestión no es si el global cambiará o no (necesariamente cambiará), sino si puede encontrar un extremo global en absoluto. si no te importa, puedes inicializar los pesos de la red con números aleatorios y ya está, porque ¿qué más da que sea global o no? local))
 
Evgeni Gavrilovi catboost, necesito Sharp.

El resultado de entrenar un modelo con mi versión es casi el mismo que con RMSE, así que hay un error en alguna parte del código.

preds y target son return (a[i]-a[i+1])

No sé mucho sobre python o katbusta, pero voy a hacer preguntas estúpidas)

1) ¿Qué son los datos, por qué la media no es de preds?

2) Parece que para el gradient bousting hay que especificar más fórmulas para el gradiente y la hessiana?

 
Aleksey Nikolayev #:

No sé mucho ni de python ni de catbusta, pero haré preguntas estúpidas)

1) ¿Qué son los datos, por qué la media no es de preds?

2) Parece que para el gradient bousting hay que especificar formulas para gradiente y hessian?

Parece que sí, me he perdido algo. He utilizado la plantilla del sitio oficial https://catboost.ai/en/docs/concepts/python-usages-examples.

datos - lista generada de predicciones del modelo, convertí los valores negativos en positivos para calcular su media aritmética para la media de Sharpe

Razón de la queja: