Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 3341

 
mytarmailS #:

Bueno, esa es la cuestión, hay una asociación en la cara de la misma ...
¿Cómo sabes si es sólo una asociación o si es realmente AB causando C

No está claro si estas líneas se conocen inmediatamente o si aparecen letra a letra. Cuál es la causa de que aparezcan estas letras. Si es sólo una secuencia de patrones, la tarea no parece muy formalizada. Por qué se eligió la longitud de la cadena y todo eso. Quizá los datos no estén representados de la forma correcta.

Lee el libro, tal vez encuentres la respuesta.

 

Sanych, kozul es un tema complejo, no sólo todo el mundo puede entenderlo de un vistazo. Si no entiendes algo, no significa que haya algo mal escrito.

No sufras si no quieres. De lo contrario resulta como en la parábola sobre los abalorios.

 
Maxim Dmitrievsky #:

Sanych, kozul es un tema complejo, no sólo todo el mundo puede entenderlo de un vistazo. Si usted no entiende algo, no significa que hay algo mal escrito allí.

No sufras si no quieres.

Kozul - esto es un movimiento publicitario y todo el libro no es más que un anuncio de la novedad inusual de la novedad de las disposiciones más habituales de la estadística matemática. Pero la estadística matemática es un tema realmente difícil.

He aquí el resultado de cientos de páginas de texto:

To the code at last! First, we have the first stage, which is exactly the same as the T-Learner.

from sklearn.linear_model import LogisticRegression

np.random.seed(123)

# first stage models
m0 = LGBMRegressor(max_depth=2, min_child_samples=30)
m1 = LGBMRegressor(max_depth=2, min_child_samples=30)

# propensity score model
g = LogisticRegression(solver="lbfgs", penalty='none') 

m0.fit(train.query(f"{T}==0")[X], train.query(f"{T}==0")[y])
m1.fit(train.query(f"{T}==1")[X], train.query(f"{T}==1")[y])
                       
g.fit(train[X], train[T]);
Now, we impute the treatment effect and fit the second stage models on them.

d_train = np.where(train[T]==0,
                   m1.predict(train[X]) - train[y],
                   train[y] - m0.predict(train[X]))

# second stage
mx0 = LGBMRegressor(max_depth=2, min_child_samples=30)
mx1 = LGBMRegressor(max_depth=2, min_child_samples=30)

mx0.fit(train.query(f"{T}==0")[X], d_train[train[T]==0])
mx1.fit(train.query(f"{T}==1")[X], d_train[train[T]==1]);
Finally, we make corrected predictions using the propensity score model.

def ps_predict(df, t): 
    return g.predict_proba(df[X])[:, t]
    
    
x_cate_train = (ps_predict(train,1)*mx0.predict(train[X]) +
                ps_predict(train,0)*mx1.predict(train[X]))

x_cate_test = test.assign(cate=(ps_predict(test,1)*mx0.predict(test[X]) +
                                ps_predict(test,0)*mx1.predict(test[X])))

Por lo que yo entiendo de programación, el código que se da NO es código que funcione: funciones que no se sabe de dónde vienen, los resultados no se asignan a nada, los argumentos de las funciones son de cero.

 
"...no sea que lo pisoteen con sus pies y se den la vuelta y te derriben"
 

Maxim es irremediablemente incapaz de tener una discusión sustantiva.

¿Hay alguien en el foro que entienda la copia del código del libro que he dado?

Yo mismo aplico diferentes enfoques para combinar los resultados de varios modelos, conozco pero no aplico alguno más, pero no he visto algo similar, quizás por la incomprensibilidad del código.

 
😀😀😀

Ha empezado ya a terminar la fase de negación, la que sigue a la sorpresa? Está tardando mucho. Cuándo empezará la fase de aceptación?
 

Maravilloso apartado en el apéndice de los libros, hablando de la absoluta inutilidad de toda esta cajuela:

"

Por qué las métricas de predicción son peligrosas para los modelos causales".

y la conclusión de la sección:

En otras palabras, el rendimiento predictivo en un conjunto de datos aleatorio no traduce nuestra preferencia por lo bueno que es un modelo para la inferencia causal .


Traducción de Yandex

Por qué el rendimiento predictivo es peligroso para los modelos causales

En otras palabras, el rendimiento de la predicción en un conjunto de datos aleatorio no traduce nuestra preferencia por lo bueno que es un modelo para la inferencia causal.


Es decir, para el autor lo más importante es la propia inferencia causal, e intentar utilizarla estropea la belleza de toda la construcción.

¡Tramposo!

 
Esto es sólo decir que a través de modelos sobre-entrenados, con un gran número de factores de confusión, la inferencia causal es complicada. He escrito sobre esto varias veces. Y es perfectamente natural . E incluso la gente optimizadora discute sobre cosas tan simples. Bueno, eso si lo lees y no lo sacas de contexto.

Pero no es cómico discutir nada de nada con babosos chillones. Es que sois muy estrechos de miras. Aunque no sepas quien es un maestro y confundas conjunto con estacazo.

Ni siquiera distingues matstat de kozul, para ti todo es lo mismo (por ignorancia).

¿Cuánto tiempo llevas interesado en MO en general? Por puro interés ocioso. ¿Puedes escribir tu mismo un clasificador o construir un NS de arquitectura arbitraria a partir de un constructor como Pytorch. ¿O al menos tu propio probador? Es un misterio cubierto de oscuridad.

Es decir, ¿qué se le puede oponer al autor del libro? ¿Por qué hay que hacerle caso a usted y no a él, por ejemplo)?
 
El nuevo producto de Google, TSMixer, parece superar a TimeGPT en los benchmarks, acabo de empezar a leerlo.
 
Maxim Dmitrievsky #:
Nuevo de Google, TSMixer, parece ser superior a TimeGPT en benchmarks, acabo de empezar a leer.

Necesito una buena previsión probabilística de series, pero no tan cursi como se hace hoy en día (regresión cuantil, por ejemplo). No he visto nada al respecto en el propio artículo, aunque la lista de referencias parece contener algo de información sobre este tema.

Razón de la queja: