Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 3358

 
Aleksey Nikolayev #:
No he visto este tema, tal vez me lo perdí (solía leer más Cyberpawk). Se trata de modelos que producen distribuciones de probabilidad en lugar de valores numéricos específicos. No quiere decir que sea un enfoque completamente nuevo, pero en los últimos años ha habido un notable aumento de interés en este tema.

Ha habido muchos intentos, pero no conozco sus resultados públicos satisfactorios. Lo más simple que se ha hecho es tratar la salida de una sola neurona como la probabilidad de una venta/compra en el rango [-1.0;1.0], nada bueno salió de eso, aplicar un umbral no ayuda.

Otra cosa es que sea posible aplicar la distribución de salidas de neuronas como probabilidad, pero no he visto a nadie hacerlo. Por ejemplo, para las mismas señales de venta/compra de la neurona de salida de la red durante el entrenamiento, la distribución de valores puede ser muy diferente, por lo que el comportamiento en OOS será diferente.

Además, hace tiempo que mostré gráficos de entrenamiento y comportamiento en OOS, donde la línea va sin romperse, por supuesto sin spread, y la entrada se daban incrementos de mashka simple de diferentes timeframes, elementales. Y aquí unos genios de repente sacaron la "brillante" conclusión de que el spread afecta al comportamiento en OOS.

 
Andrey Dik #:

Bueno, ha habido muchos intentos, pero no conozco sus resultados públicos exitosos. Lo más sencillo que se hizo fue tratar la salida de una sola neurona como una probabilidad de venta/compra en el rango [-1.0;1.0], nada bueno salió de ello, aplicar un umbral no ayuda.

Otra cosa es que se pueda aplicar la distribución de salidas de las neuronas como probabilidad, pero no he visto a nadie hacerlo. Por ejemplo, con las mismas señales de venta/compra de la neurona de salida de la red durante el entrenamiento, la distribución de valores puede ser muy diferente, por lo que el comportamiento en OOS será diferente.

Además, hace tiempo que mostré gráficos de entrenamiento y comportamiento en OOS, donde la línea va sin romperse, por supuesto sin spread, y a la entrada se le daban incrementos de mashka simple de diferentes timeframes, elementales. Y aquí unos genios de repente sacaron la "brillante" conclusión de que el spread afecta al comportamiento en OOS.

Aún así, la clasificación es un caso especial relativamente simple, en el que la distribución de la salida es discreta y, por lo tanto, todo es relativamente fácil de reducir al habitual "punto", problema numérico de MO.

Un enfoque más amplio es interesante, con modelos para los que la salida no es un número, sino cualquier distribución (dentro de límites razonables, por supuesto). Un ejemplo es la MO utilizada en la teoría de la fiabilidad (donde se estudia la distribución de la vida útil) o en la previsión meteorológica probabilística (donde se construye una distribución de probabilidad para la posible cantidad de precipitaciones, por ejemplo).

 
Aleksey Nikolayev #:

...

Es interesante un enfoque más amplio, con modelos para los que el resultado no es un número, sino cualquier distribución (dentro de unos límites razonables, por supuesto). Un ejemplo sería el modus operandi utilizado en la teoría de la fiabilidad (donde se estudia la distribución de la vida útil) o en la previsión meteorológica probabilística (donde se construye una distribución de probabilidad para la posible cantidad de lluvia, por ejemplo).


Eso es lo que yo decía en realidad, intentar utilizar la distribución, no los valores de salida en sí, como clasificador.
 
Las probabilidades se derivan de un modelo ya entrenado. Si no, ¿por qué enseñarle probabilidades? Si se conocen las probabilidades, ¿para qué entrenarlo?

¿Momentos de distribuciones en modelos de regresión para estimar intervalos? No, ¿no ha oído hablar de ellos? ¿Has hecho muchas previsiones con ellos?

¿Qué pasa, hace 20 años lo sabías todo pero te daba vergüenza decirlo? Es mucho tiempo para alejarse de la sobreoptimización de las fases.

Es triste, 20 años...
 

Formar una distribución de probabilidad durante el entrenamiento, no después.

Y después del entrenamiento, ¿para qué sirve hacer nada? Un hipotético tonto de las máquinas no adquirirá nuevos conocimientos si se le pellizca con un destornillador después del entrenamiento.

 
Maxim Dmitrievsky #:

Ya he descrito el ejemplo más arriba. Hay un clasificador que pasa el OOS, pero los rendimientos se distribuyen 60/40. No te gusta, subes el umbral de decisión, pero la situación no cambia, y a veces incluso empeora. Te rascas la cabeza para saber por qué es así.

Se da una explicación: porque en el caso de una estimación de probabilidad real la situación debería cambiar.

Se da una solución.


¿Cómo encuentras imbéciles como este Karpov?

La cabeza del hombre es un desastre. El hombre es incapaz de pensamiento coherente. ¡Es simplemente espeluznante!

Desde los primeros minutos simplemente afirma que el clasificador no da la probabilidad. ¿Y de dónde se puede sacar la probabilidad sin usar lo que da el clasificador?

 
СанСаныч Фоменко #:

¿Cómo encuentras imbéciles como este Karpov?

La cabeza del hombre es un desastre. El hombre es incapaz de pensamiento coherente. ¡Eso es simplemente espeluznante!

Bueno, ¿también te invitaron a trabajar en Inglaterra con tu papilla? )

al hombre no le importa en absoluto, lo está haciendo bien.

No entender el punto ! = entenderlo mal. Son personas de una formación un poco diferente, ese es probablemente el problema.

Hace tiempo que es obvio que el topic necesita sangre nueva. Yo también soy ya un oldfag. Los nuevos vendrán y se dejarán ver, si al final el foro no se enmohece claro.

Lo peor es que entiendo qué cambios se producen en el cerebro con la edad, y por qué la gente razona de esta manera y no de otra. Esta obviedad a veces es hilarante, pero no hay quien la quite.

 
Maxim Dmitrievsky #:

¿También te han invitado a trabajar en Inglaterra con tus gachas? )

al hombre no le importa en absoluto, le va bien.

No captar la idea ¡ = no ponerla bien. Se trata de personas de una formación ligeramente diferente, ese es probablemente el problema.

Hace tiempo que es obvio que el topic necesita sangre nueva. Yo también soy ya un oldfag. Los nuevos vendrán y se dejarán ver, si al final el foro no se enmohece claro.

Lo peor es que entiendo qué cambios se producen en el cerebro con la edad, y por qué la gente razona de esta manera y no de otra. Esta obviedad a veces es hilarante, pero no hay quien la quite.

¿Qué tiene esto que ver con Inglaterra?

Pareces una persona cualificada, pero te arrastran constantemente al cubo de la basura.

Rara vez discutes sobre los méritos....

 
СанСаныч Фоменко #:

¿Qué tiene que ver Inglaterra?

Pareces un hombre cualificado, pero siempre te arrastras al cubo de la basura.

Usted muy rara vez hace objeciones de fondo...

Lo saqué de su webinar. ¿Qué más es sustantivo?
Además todos los nombres de los métodos están ahí, puedes googlearlo. Habló de 2 de sus favoritos.
Hizo un montón de cursos, fue a Inglaterra para un trabajo a tiempo parcial. Google o metanfetamina, no me acuerdo. Para mí la basura son los interlocutores locales :)

Tengo amigos en buenos puestos en informática, aunque yo mismo estoy lejos de ello. Uno de ellos levantó toda la infraestructura bancaria. De vez en cuando me asedian por alguna tontería, a veces se sorprenden de mis conocimientos. De ahí el interés por el Ministerio de Defensa. Así que está todo limpio y ordenado.

No tengo nada que ver con esta área, en todo caso. Sólo por diversión. Tengo cero conocimientos de matemáticas, puramente por intuición. Quiero decir, ni siquiera pasar algún tipo de programa de matemáticas de la escuela secundaria. Ni tampoco ningún patrón de programación.

Si traes a un MOSHnik duro aquí, te volará en pedazos. Así que si no me entiendes, él será Dios para ti. Pero seguro que no vendrá a este zoo :) y le da igual tu R desde un alto campanario.

Y lo primero con lo que empezará es con que aquí estáis todos lisiados, ya que estáis sentados en este Forex :)
 

Los clasificadores como el método de vectores de soporte y los árboles de decisión tienen la función predict_proba porque pueden proporcionar estimaciones de probabilidades de clase basadas en sus características internas. Sin embargo, estas estimaciones de probabilidad pueden no ser completamente precisas o no reflejar la confianza real del clasificador.


Porejemplo, para el método de vectores soporte , la funciónpredict_proba puede devolver estimaciones de probabilidad basadas en la distancia al hiperplano de separación, pero estos valores pueden estar sesgados debido a características del propio método.


Para los árboles de decisión , la funciónpredict_proba puede calcular las probabilidades de clase basándose en el número de objetos de cada clase en los nodos hoja, pero estas probabilidades pueden no ser del todo precisas debido a la estructura del árbol.


Por lo tanto,aunque estos clasificadores tengan una funciónpredict_proba, las probabilidades que proporcionan pueden ser menos fiables en comparación con los métodos basados en un modelo probabilístico, como un clasificador bayesiano ingenuo o una regresión logística.

Razón de la queja: