Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 3167

 
Forester #:

TP=10 y SL=1000 ?)

No, es divertido si quieres hacer muchas operaciones.

abrir nuevas en cada barra
 
Vladimir Perervenko #:

¿Qué quieres decir con casero? Hay una justificación teórica, un buen artículo. Hay un paquete llamado RLTv3.2.6. Funciona bastante bien. Presta atención a la versión.


Suerte

En mi opinión, no casera, si se cumplen las siguientes condiciones con un ejemplo concreto.

Al principio, ahora mucho menos, la web estaba llena de "genios" hechos a sí mismos, que sentados en la cocina inventaban algo, utilizaban terminología salida de sus cabezas y se ponían a "investigar", y no sólo a "investigar" sino a refutar cosas existentes y generalmente reconocidas.

Toda esta gente no se da cuenta de que su código casero no vale un duro, ya que NO tiene fundamentos teóricos que se publiquen en revistas serias y que luego se discutan, a menudo durante años, por personas que tengan la formación correspondiente. Luego el código es escrito y probado por un gran número de usuarios y sólo después de eso todo se vuelve apto para el uso industrial.

No tiene sentido discutir sobre "genios" locales.

Pero katbust.

Comparemos la documentación sobre katbust y XGBoost para comprender la infravaloración de una organización no central y profesional de desarrollo muy similar.

 
Maxim Dmitrievsky #:
Y el principal hombre hecho a sí mismo y hecho a sí mismo es Breiman, porque él no escribió en R. Es un koljosnik.

Aprende R para no parecer un completo ignorante: prácticamente todos los paquetes en R NO están escritos en R. Normalmente son C++ o Fortran, y R es sólo acceso. Por eso los algoritmos computacionalmente intensivos en R no funcionan peor que en C++.

 
СанСаныч Фоменко #:

Aprende R para no parecer un completo ignorante: casi todos los paquetes en R NO están escritos en R. Normalmente son C++ o Fortran, y R es sólo acceso. Por eso los algoritmos computacionalmente intensivos en R no funcionan peor que en C++.

Qué va, es la primera vez que oigo eso.

¿Habrá alguna información más esclarecedora? )

Ya he llegado a la gatera.... )))

 
mytarmailS reducción de la dimensionalidad, el modelo se hizo más repetible.

y el último toque quizás decorativo


Me pregunto cómo se entrenará el MO con esos datos.

Se trata de una muestra de prueba.

¿Alguna vez has visto números como estos por tu cuenta?




Lo más probable es que esté recalculado, ya que está vinculado a valores de precios absolutos.

 

Escribiendo una función que reetiquete las etiquetas y las haga más predecibles para sus rasgos, el modelo se vuelve más estable.

Si usted tiene un pequeño conjunto de datos, puede soltarlo para comprobar, y asegúrese de que en sus datos (o se frustran).

Para la gente de python:

    c = coreset[coreset.columns[1:-4]] // ваш датасет без меток. Нужно брать только трейн/тест данные, на остальных не делать кластеризацию, иначе подгонка
    kmeans = KMeans(init='k-means++', n_clusters=clusters).fit(c) // кол-во кластеров - гиперпараметр
    coreset['clusters'] = kmeans.predict(c)
    mean_labels = coreset.groupby('clusters')['labels'].apply(lambda x: x.mean()) // считаем среднее по меткам каждого кластера
    coreset['labels'] = coreset.apply(lambda row: 0 if mean_labels[row['clusters']] < 0.5 else 1, axis=1) // если среднее больше 0.5, то для всех элементов кластера ставим метку 1 и наоборот
el modelo es mas estable si los clusters son representativos. Así que por el método de fuerza bruta el número de clusters y por el que los chips a cluster.
 
Aleksey Nikolayev #:

Por lo que tengo entendido, los comandos para trabajar con R en una sesión interactiva están comentados. Primero se carga todo el script para definir las funciones, y luego los comandos línea por línea, pulsando enter después de cada uno. Esto es probablemente algo así como un estándar en las publicaciones científicas - confiar sólo en la línea de comandos y evitar entornos como Rstudio.

En aras de la brevedad he llamado a CTree desde la colección de datos y las plantillas de clase, que parecen ser inevitables también.

La detección de anomalías se incluye en los objetivos allí - está buscando donde los incendios son anómalamente frecuentes.


PD. Hace algún tiempo te escribí sobre el uso de la distribución de Poisson, y aquí se desarrolla al código de trabajo.

Todavía no lo he probado del todo - estoy atascado en una de mis tareas.

Definitivamente voy a tratar de ejecutarlo en mis propios datos. Estoy acumulando diferentes soluciones sobre este tema.

En cuanto a la distribución de Pausson - es interesante en teoría, pero cuando miro los datos, en la secuencia, digamos que puede haber 20 ceros en una fila, y luego una mezcla de ceros y unos, y estos saltos son significativos, parecen ser inconsistentes con la distribución.

 
Aleksey Vyazmikin #:

En cuanto a la distribución de Pausson - es un poco interesante en teoría, pero cuando miro los datos, en la secuencia, digamos, puede haber 20 ceros en una fila, y luego una mezcla de ceros y unos, y estas omisiones son significativas, parecen ser inconsistentes con la distribución.

La idea es dividir los ejemplos en grupos que sean diferentes entre sí y dentro de los cuales haya homogeneidad. No es en absoluto seguro que las características específicas permitan hacerlo. Tampoco es un hecho que alguna de ellas lo haga, debido a la no estacionariedad, por ejemplo.

No tengo previsto estudiar este artículo en detalle, ya que sólo toca el tema que me interesa. CHAID se acerca un poco, pero no es exactamente lo mismo.

 
Vladimir Perervenko #:

Vladimir, ¿qué máximo "honesto" akurasi obtuviste con los nuevos datos?

¿Y con qué algoritmo MO?

 
Aleksey Nikolayev #:

La idea es dividir los ejemplos en grupos que sean diferentes entre sí y dentro de los cuales exista homogeneidad. No es seguro en absoluto que las características específicas permitan hacerlo. De hecho, no es seguro que ninguna de ellas lo haga, debido a la no estacionariedad, por ejemplo.

No tengo previsto estudiar este artículo en detalle, ya que sólo toca el tema que me interesa. CHAID se acerca un poco, pero no es exactamente lo mismo.

Es justo eso, me gustaría encontrar alguna regularidad en la dinámica de los cambios de orden de las secuencias, o al menos una estimación del desplazamiento con la identificación de un punto de ruptura. Y estoy hablando de predictores binarios triviales. Por ejemplo, identificar 5 secuencias que se hayan encontrado en los últimos cinco años, mirar su estabilidad de predisposición al valor objetivo, y además, si hay cambios significativos tanto en las secuencias como en la predisposición, entonces excluir el predictor del entrenamiento o del modelo. He leído/visto muchos métodos durante el último medio año, pero no es realista para mí codificarlo todo para las pruebas - hay mucho trabajo que hacer. Lo más triste es cuando trabajas en algo y luego te das cuenta de que el resultado no es el esperado.

¿Cuál cree que es la ventaja de CHAID?

Razón de la queja: