Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 3100

 
Maxim Dmitrievsky #:
Pues bien, las colas gruesas se deben a una volatilidad desigual (agrupación de ondas), en función de la sesión bursátil. No parecen aportar ninguna otra información. Considero que los mercados son más o menos eficientes. En consecuencia, la tarea consiste en buscar ineficiencias. Es difícil decir en qué modelo se puede encuadrar. Porque aparecen aquí y allá.
.
O bien algún modelo econométrico complicado, pero suelen ser estrategias de inversión. Y para el scalping, o arbitraje o TSs sobreoptimizadas.
Un MOSHka entrenado ya contiene información útil y ruido. Se puede entrenar una vez sobre las cotizaciones y luego estudiar este modelo. Esto también es una opción. Sin fanatismos ni alaridos como si IO hubiera creado un grial. Sólo hay que explorar y sacar lo inexplorado.

Puede que tengas razón. Aunque explicar la no estacionariedad por una volatilidad desigual es un poco simplificar en mi opinión. La agrupación de la volatilidad
es bastante sencilla de modelizar y entonces cualquier heteroscedasticidad se eliminaría fácilmente por correlación con la volatilidad. Pero en realidad hay un montón de arcos y garches complicados, que tampoco funcionan muy bien.
El mercado es probablemente eficiente, y si no lo es, sólo puedes averiguarlo encontrando tu alfa, con cuya ayuda puedes batirlo constantemente. Dónde buscar este alfa, en qué dirección cavar, en mi opinión, el modelo de precios puede sugerir y empujar. De lo contrario, la maldición de la dimensionalidad puede llevar a que se necesiten millones de horas de trabajo de los ordenadores para encontrarlo.

 
mytarmailS reducción de la dimensionalidad....


Es un modelo de precio porque es una representación simplificada del precio.

Lo que es una TS, es un intento de describir un proceso de mercado mediante un conjunto de reglas o funciones. Una TS es un modelo del proceso de mercado.


Un modelo es una simplificación útil.

Y un modelo de mercado no tiene por qué ser una fórmula que describa las interacciones del mercado.

Yo añadiría a la noción anterior de modelo otra propiedad extremadamente importante en nuestro caso: el globo mencionado no existe, sino que hay un conjunto de globos que se sitúan en algún canal con cierta probabilidad.


En cuanto nos olvidamos de esto, caemos en el determinismo y empezamos a creer en la figura obtenida, aunque sobre el papel no exista. Es decir, cuando decimos que el error de clasificación = 30%, NO debemos tomarlo al pie de la letra, sino que debemos entender que un error de clasificación del 30% está dentro de unos límites, por ejemplo, 2% con una probabilidad del 95%. Y entonces el 30% es el 30%. Pero, ¿alguien calcula la anchura del canal?, ¿Quizá no el 2% sino el 22%? ¿O la probabilidad de la anchura del canal es del 60%? ¿Cuánto vale un error de clasificación decente del 30%?


Esta no es nuestra felicidad completa.

El razonamiento anterior sobre las probabilidades y la anchura del canal es válido si la distribución de errores es normal. ¿Y quién ha comprobado la normalidad de la distribución del error de clasificación?

 
sibirqk #:

De lo contrario, la maldición de la dimensionalidad puede suponer millones de horas de trabajo informático para encontrarla.

La maldición de la dimensionalidad existe desde hace mucho tiempo.

Gracias a ella

1) el mercado no se repite - gracias a ella.

2) hay tantas opciones de precios - debido a ello.

3) los modus operandi que funcionan todos según el esquema: "mañana será como ayer" no funcionan - debido a ello.


Por eso necesitamos un modelo, por simplicidad, por repetibilidad.

 
mytarmailS reducción de la dimensionalidad....

Es un modelo de precio porque es una representación simplificada del precio.

Lo que es una TS, es un intento de describir un proceso de mercado mediante un conjunto de reglas o funciones. Una TS es un modelo del proceso de mercado.

Un modelo es una simplificación útil.

Y un modelo de mercado no tiene que ser necesariamente una fórmula que describa las relaciones de mercado.

Estoy completamente de acuerdo contigo: un modelo es una simplificación útil. Pero yo me refería a un modelo de fijación de precios para un activo financiero.

Supongamos que existe tal modelo: el cambio de precio en un momento dado viene determinado por el exceso de ofertas, para vender o comprar. Tomemos, para simplificar, un gran número de participantes independientes, digamos un millón. Y dejemos que coloquen órdenes con el mismo volumen, simultáneamente con cierto estrobo, y que el cambio de precio sea proporcional a la posición agregada desequilibrada en un momento dado. Está claro que en un modelo así el precio del activo será un paseo aleatorio puro clásico. De hecho, si los operadores toman decisiones de negociación de forma independiente, aproximadamente la mitad de ellos comprará y la otra mitad venderá. Es muy probable que su diferencia sea la raíz del número de participantes. En el siguiente paso, el equilibrio puede cambiar y el precio se desplazará en la otra dirección.
En este sentido, se declara que la SB es el modelo más aceptado y tosco de fijación de precios. Pero este modelo necesita ser refinado para explicar algunas empíricas y al mismo tiempo para entender dónde buscar ineficiencias.

 
sibirqk #:

Estoy completamente de acuerdo contigo: un modelo es una simplificación útil. Pero yo me refería al modelo de fijación de precios de un activo financiero.

Supongamos que existe tal modelo: que la variación del precio en un momento dado viene determinada por el exceso de ofertas de venta o compra. Tomemos para simplificar, un gran número de participantes independientes, digamos un millón. Y dejemos que coloquen órdenes con el mismo volumen, simultáneamente con cierto estrobo, y que el cambio de precio sea proporcional a la posición agregada desequilibrada en un paso dado. Está claro que en un modelo así el precio del activo será un paseo aleatorio puro clásico. De hecho, si los operadores toman decisiones de negociación de forma independiente, aproximadamente la mitad de ellos comprará y la otra mitad venderá. Es muy probable que su diferencia sea la raíz del número de participantes. En el siguiente paso, el equilibrio puede cambiar y el precio se desplazará en la otra dirección.
En este sentido, se declara que la SB es el modelo más aceptado y tosco de fijación de precios. Pero este modelo necesita ser refinado para explicar algunas empíricas y al mismo tiempo para entender dónde buscar ineficiencias.

Alexei Nikolaev en sus blogs en R implementado un modelo del juego Café, o la victoria de la minoría, similar en términos de mercado, si la posición del jugador está en una sociedad con menos participantes, gana (en el café, de acuerdo con la fecha, los jugadores que vinieron en el día con el menor número de visitantes ganar, y con un gran número de visitantes perder), pero esto es demasiado simple modelo, en el mundo real todavía hay un montón de tipos de jugadores, que van desde el estado y otros grandes jugadores y pequeños jugadores, que son un gran número. El modelo ni siquiera está creado a grandes rasgos todavía)

Pero los gráficos allí son incluso muy similar a la deambulación de garrapatas.

 
sibirqk #:

Estoy completamente de acuerdo contigo: un modelo es una simplificación útil. Pero yo me refería al modelo de fijación de precios de un activo financiero.

Supongamos que existe tal modelo: el cambio de precio en un momento dado viene determinado por el exceso de ofertas de venta o compra. Tomemos para simplificar, un gran número de participantes independientes, digamos un millón. Y dejemos que coloquen órdenes con el mismo volumen, simultáneamente con cierto estrobo, y que el cambio de precio sea proporcional a la posición agregada desequilibrada en un paso dado. Está claro que en un modelo así el precio de un activo será un paseo aleatorio puro clásico. De hecho, si los operadores toman decisiones comerciales de forma independiente, aproximadamente la mitad de ellos comprará y la otra mitad venderá. Es muy probable que su diferencia sea la raíz del número de participantes. En el siguiente paso, el equilibrio puede cambiar y el precio se desplazará en la otra dirección.
En este sentido, se declara que la SB es el modelo más aceptado y tosco de fijación de precios. Pero este modelo necesita ser refinado para explicar algunas empíricas y al mismo tiempo para entender dónde buscar ineficiencias.

Personalmente, no le veo ninguna utilidad al modelo SB.

No hace nada, no resalta las buenas propiedades, no suprime las malas propiedades, no simplifica...

Sí, el gráfico se parece a los precios, ¿y qué?

 
sibirqk #:

Puede que tenga razón. Aunque explicar la no estacionariedad por una volatilidad no uniforme es, en mi opinión, una simplificación. La agrupación de la volatilidad
es bastante simple de modelar y entonces cualquier heteroskedasticidad se eliminaría fácilmente por correlación con la volatilidad. Pero en realidad hay un montón de arcos y garches complicados, que tampoco funcionan muy bien.
El mercado es probablemente eficiente, y si no lo es, sólo puedes averiguarlo encontrando tu alfa, con cuya ayuda puedes batirlo constantemente. Dónde buscar este alfa, en qué dirección cavar, en mi opinión, el modelo de precios puede sugerir y empujar. De lo contrario, la maldición de la dimensionalidad puede llevar a que se necesiten millones de horas de trabajo de los ordenadores para encontrarlo.

Llamo estacionariedad a lo habitual en econometría: constancia de media y varianza. En los mercados naturalmente no existe tal cosa, no son un "monumento". Se elimina la heteroscedasticidad, el resto se acerca a SB.

En general, el tipo de distribución dice poco sobre la previsibilidad. Se trata de un juego matemático, alejado del comercio. Añade algo de esponjosidad a la cotización que cubra el diferencial. O una vuelta constante a la media en determinados momentos del día. El diferencial no cambiará y será posible ganar dinero. A grandes rasgos, esto y cosas por el estilo pueden llamarse ineficiencia. Para ello, escribir algoritmos teniendo en cuenta el hecho de que no se puede predecir todo, y no es necesario. Yo no diría que existe tal maldición, sólo que hay herramientas realmente eficientes de las que no se puede sacar nada.

 
Enseñar a la IA a ser un gigante de la información.
 

Si medimos el porcentaje de señales de un tipo en cada mes de la muestra para un segmento cuántico separado y restamos el porcentaje medio de señales rentables y construimos un balance sobre los datos, podemos ver lo siguiente.

Este es el segmento cuántico seleccionado según mi método, y lo que vemos es que desde el mes 38 hasta el 127 hubo una tendencia tan estable, y luego comenzaron las fluctuaciones.

Así que resulta que si la muestra se divide según el método clásico 60+20+20, aprenderemos y todo irá bien hasta unos 100 meses, luego a los 40 meses - hasta los 140 estaremos en el plus y ya en la muestra independiente para la prueba cogeremos un movimiento a la baja con rebote. Al mismo tiempo, podemos ver que hubo movimientos similares en la muestra para entrenamiento antes del mes 38, pero ¿qué modelo los tendrá en cuenta y encontrará una "explicación" para estas fluctuaciones? Un modelo ordinario de madera empezará a sacar un trozo de toda la muestra, mientras que es necesario prestar atención sólo a una parte de ella.

Eso es lo que estoy pensando, una manera de construir un modelo que tenga en cuenta los matices descritos anteriormente - y hacer divisiones no sobre toda la pieza, pero como para tener en cuenta por separado los cambios en cada sección después de la misma división.

¿Quizás estoy reinventando la rueda de nuevo y ya existe una solución? Ya he esbozado el sistema sobre el papel, pero el código está todavía muy lejos....

 

Bueno, así es como se ve el histograma (según la versión de excel)

Se puede ver que hay meses donde los patrones no funcionaron.... y deberían ser explicados por otros splits, pero preferiblemente eliminándolos donde se acumulan.

Razón de la queja: